KR101855105B1 - 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법 - Google Patents

헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법 Download PDF

Info

Publication number
KR101855105B1
KR101855105B1 KR1020170006134A KR20170006134A KR101855105B1 KR 101855105 B1 KR101855105 B1 KR 101855105B1 KR 1020170006134 A KR1020170006134 A KR 1020170006134A KR 20170006134 A KR20170006134 A KR 20170006134A KR 101855105 B1 KR101855105 B1 KR 101855105B1
Authority
KR
South Korea
Prior art keywords
analysis
center point
dense
density
zones
Prior art date
Application number
KR1020170006134A
Other languages
English (en)
Inventor
허용수
안대수
김재현
Original Assignee
주식회사 살린
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 살린 filed Critical 주식회사 살린
Priority to KR1020170006134A priority Critical patent/KR101855105B1/ko
Application granted granted Critical
Publication of KR101855105B1 publication Critical patent/KR101855105B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

눈의 초점 위치 분석 방법은, (a) 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계; (b) 상기 N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해 각 분석 구역별로 밀집 중심점을 산출하는 단계; 및 (c) 상기 (b) 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계;를 포함한다.
본 발명에 따르면, 헤드 마운트 디스플레이에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있다.

Description

헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법{FOCUS POINT ANALYSIS SYSTEM FOR HUMAN EYE ON HEAD-MOUNTED DISPLAY}
본 발명은 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 눈의 초점 위치를 분석하는 것에 의해 디스플레이되고 있는 영상에서 사용자의 시선 위치를 검출할 수 있는 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 관한 것이다.
국내공개특허 제10-2016-0022927호(헤드 마운트 디스플레이를 위한 눈 추적 시스템) 등에는 헤드 마운트 디스플레이 상에서의 사용자의 시선 위치를 검출할 수 있는 시스템이 개시되어 있다.
그런데, 사용자의 눈의 초점 위치인 시선이 하나의 위치에 고정되어 있을 수도 있지만 이동을 할 수도 있고, 하나의 위치에 고정되어 있을 경우에도 한 지점을 응시하는 것이 아니라 다양한 요인에 의해 일부 영역 내에서 초점 위치의 높은 밀집도의 형태로 나타날 수도 있다.
사용자의 눈의 초점 위치 정보는, 사용자의 행동 패턴 등의 분석에 이용되는 것에 의해, 다양하게 활용될 수 있을 것이다. 예를 들면, 영상 중의 PPL 화면에 대해 실제 해당 상품을 사용자가 응시한 경우 PPL 효과가 상승되므로, 그 경우에는 PPL을 위한 광고 비용을 추가적으로 요청할 수도 있을 것이다.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 헤드 마운트 디스플레이에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있는 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법을 제공하는 것에 그 목적이 있다.
본 발명의 바람직한 일실시예에 따른 눈의 초점 위치 분석 방법은, (a) 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계; (b) 상기 N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해 각 분석 구역별로 밀집 중심점을 산출하는 단계; 및 (c)상기 (b) 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계;를 포함한다.
구체적으로, 상기 (b) 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치인 것을 특징으로 한다.
아울러, 상기 (c) 단계는, 해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 상기 분석 구역간 밀집 중심점을 산출하는 것이 바람직하다.
또한, 본 발명의 눈의 초점 위치 분석 방법은, 상기 (a) 단계 이전에, 연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계;를 더 포함하는 것을 특징으로 한다. 바람직하게는, 상기 그룹화하는 단계에서 그룹화된 각각의 그룹에 대해, 상기 (a) 단계 내지 상기 (c) 단계를 실시하되, 하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 한다.
아울러, 상기 (a) 단계에서의 다수의 눈의 초점 데이터는, 사용자가 착용 중인 헤드 마운트 디스플레이의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점인 것을 특징으로 한다.
본 발명의 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 따르면, 헤드 마운트 디스플레이에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있다.
도 1은 본 발명의 바람직한 일실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템의 구성도.
도 2는 본 발명의 초점 위치 수집 및 전송 방법의 설명도.
도 3a 및 도 3b는 각각, 본 발명의 트레이서에 의한 초점 위치 검출 방법의 설명도.
도 4는 본 발명의 바람직한 일실시예에 따른 분석부에 의한 눈의 초점 위치 분석 방법의 흐름도.
도 5는 그룹화하는 단계(S10)의 설명도.
도 6은 다수의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20)의 설명도.
도 7은 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30)의 설명도.
도 8은 분석 구역간 밀집 중심점을 산출하는 단계(S40)의 설명도.
도 9는 본 발명의 초점 위치 분석 방법에 따른 결과의 설명도.
이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 대해 상세히 설명하기로 한다.
본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.
먼저, 도 1은 본 발명의 바람직한 일실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템(100)의 구성도를 나타낸다.
도 1로부터 알 수 있는 바와 같이, 눈의 초점 위치 분석 시스템(100)은, 헤드 마운트 디스플레이(110) 및 서버(120)를 포함하여 구성되는 것이 바람직하다.
헤드 마운트 디스플레이(110)는 렌더러(111)와 트레이서(112)를 포함한다.
렌더러(111)는, 눈의 초점 위치를 검출하고, 헤드 마운트 디스플레이(110)에 비디오, 메타데이터 및 CG(Computer Graphic) 객체를 그려 주는 역할을 한다.
아울러, 트레이서(112)는, 헤드 마운트 디스플레이(110)를 사용하는 사용자의 눈의 초점 위치를 검출하고, 검출된 초점 위치 데이터를 수집한다. 수집된 초점 위치 데이터는, 헤드 마운트 디스플레이(110)로부터 서버(120)로 전송되게 된다.
도 2는 본 발명의 초점 위치 수집 및 전송 방법의 설명도이다.
도 2로부터 알 수 있는 바와 같이, 본 발명에서는 검출된 초점 위치는 검출 시점의 시간을 판단할 수 있는 태그(검출 시간 정보)와 함께 임시 저장소(메모리)에 저장되며 저장된 초점 위치는 특정 주기(1초, 5초 등)마다 한꺼번에 서버(120)로 전송된다. 이는 서버(120)의 부하와 클라이언트의 성능에 따라 변경될 수 있으며 초점 위치의 검출 즉시 서버(120)로 전송될 수도 있다.
도 3a 및 도 3b는 각각, 본 발명의 트레이서(112)에 의한 초점 위치 검출 방법의 설명도를 나타낸다.
구체적으로 도 3a는 2차원 영상 투영시 초점 위치 검출 설명도이고, 도 3b는 180/360도 영상 투영시 초점 위치 검출 설명도이다.
도 3a 및 도 3b로부터 알 수 있는 바와 같이, 초점 위치는, 3차원 공간 안에서 카메라 시선 방향으로 연장된 직선과 육면체, 반구, 구 등으로 표현할 수 있는 영상이 투영되는 투영 객체(Virtual Screen)와의 충돌점의 3차원 좌표로 표현할 수 있다.
즉, 사용자가 착용 중인 헤드 마운트 디스플레이(110)의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점이 초점 위치로서 검출되게 된다. 구체적으로, 카메라의 시선 방향으로 연장된 직선은, 사용자의 시야의 중심선이 되게 된다.
본 발명의 서버(120)는, 데이터 저장부(121) 및 분석부(122)를 포함하여 구성될 수 있다.
헤드 마운트 디스플레이(110)로부터 수신된 데이터는 데이터 저장부(121)에 저장된 후, 분석부(122)에 의해 분석되게 된다. 아울러, 분석부(122)에 의해 분석이 완료된 결과 데이터는 다시 데이터 저장부(121)에 저장되거나, 별도의 저장소에 저장될 수 있다.
데이터 저장부(121)에 저장된 초점 위치 데이터는 크게 두가지 형태로 나눌 수 있다. 초점 이동 중인 이동 좌표와 고정된 초점 좌표인 고정 좌표로 나눌 수 있으며, 이 중에서 최종적으로 필요한 정보는 고정된 초점 좌표이다. 그런데, 고정된 초점 좌표와 이동 중인 초점 좌표는 밀집도에 의해 그 차이를 구분할 수 있다. 고정된 초점 좌표는 일반적으로 일정 영역 내에 밀집되어 있으며, 이동 중인 경우에는 이와는 달리 특정한 방향성을 갖는다. 현재 관심있는 데이터는 고정된 초점 좌표이므로 이는 밀집도 여부로 판단하여야 한다. 본 발명에서는, 이러한 밀집도를 판단하기 위해 군집 알고리즘을 사용하여 밀집도를 판단한다. 군집 알고리즘은 데이터를 유사성이 많은 것끼리 모음으로써 그룹 내에서는 단위 원소의 동질성을 극대화하고 서로 다른 그룹 상호 간에는 그 차이를 극대화시키기 위한 알고리즘을 말한다. 군집 알고리즘은 데이터 특성과 구조, 분석 목적에 따라 여러가지 방법을 사용할 수 있으며, 이 중 초점의 특징상 밀도 기반의 분석 알고리즘을 사용하는 것이 가장 적합한 것으로 판단된다.
도 4는 본 발명의 바람직한 일실시예에 따른 분석부(122)에 의한 눈의 초점 위치 분석 방법의 흐름도를 나타낸다. 분석부(122)는, 서버(120)에 포함된 적어도 하나의 프로세서의 적어도 일부에 의해 구현될 수 있다. 즉, 본 발명의 눈의 초점 위치 분석 방법은, 하나의 프로세서의 적어도 일부에 의해 실시될 수 있다.
도 4로부터 알 수 있는 바와 같이, 본 발명의 바람직한 일실시예에 따른 눈의 초점 위치 분석 방법은, 연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계(S10), 하나의 그룹의 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20), 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30) 및 S30 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계(S40)를 포함한다.
도 5는 그룹화하는 단계(S10)의 설명도이다.
헤드 마운트 디스플레이(110)에 의해 추출된 초점은 영상에 대한 초점이므로, 영상의 프레임이 변경됨에 따라 자연스럽게 이동하게 된다. 따라서, 전체 초점 데이터에 대해 초점 위치를 파악하는 것은 크게 의미가 없으며, 가능한 짧은 시간 단위의 그룹으로 초점 위치를 분석하는 것이 바람직하다. 시간 단위는 영상의 특성에 따라 달라질 수 있으며 이는 고정적인 특정 구간이 아닌 특성에 따라 다른 값이 될 수 있음을 의미한다. 또한, 초점의 이동은 연속적이며 이전의 위치와 연관이 있기 때문에 겹치는 구간을 일정 부분 추가하여 분석 정확도를 높이도록 한다. 예를 들어, 2초째의 분석에서는 이전 0 내지 1초 구간을 포함하여 0 내지 2초 단위로 분석한다.
즉, 본 발명의 그룹화하는 단계(S10)에서, 하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 한다.
도 6은 다수의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20)의 설명도이다. 도 6에서는 직사각형을 이용한 16개의 분석 구역을 예시적으로 표시하였다.
S20 단계는 원형 또는 사각형과 같은 도형을 하나의 분석 구역으로 하여 실시되는 것이 바람직하다. 다만, 본 발명의 경우 영상 정보를 기초로 이루어지므로, 원형보다는 영상 프레임에 비례하는 직사각형을 이용하여 분석 구역을 분리하는 것이 더욱 바람직하다.
즉, 전체 데이터에 대해 밀집도 분석을 행할 경우 보다 정확한 밀집도 측정이 가능하지만 속도가 떨어지는 문제가 발생할 수 있다. 따라서, 영상의 크기에 따라 분석 구역을 나누고 각 분석 구역 내의 초점 데이터의 밀집도를 병렬로 계산할 수 있도록 하여 분석 속도 향상을 기대할 수 있다. 분석 구역의 크기는 영상의 해상도 등에 따라 달라질 수 있다.
도 7은 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30)의 설명도이다.
S30 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치에 의해 산출되는 것을 특징으로 한다. 아울러, S30 단계는, 분석 구역을 생성한 후 데이터가 존재하지 않는 분석 구역을 제외한 나머지 구역에 대해서 밀집도 분석을 시행하는 것이 바람직하다.
즉, S30 단계는, N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해서만 분석 구역별 밀집 중심점을 산출하는 것이 바람직하다. 아울러, 밀집도는 그 중심점에 대해서 각 초점 데이터의 거리의 평균으로 계산할 수 있다.
분석 구역 내의 밀집도 분석의 경우 계산 속도는 빠르지만 도 7의 분석 구역 8 및 분석 구역 12에서 볼 수 있듯이 양 구역에 걸치는 경우 정확한 위치를 찾기 어렵고 두 개의 중심점으로 나뉘는 문제가 발생한다.
따라서, S40 단계에서 분석 구역 내에서 생성된 각 중심점을 기준으로 K-Means Algorithm을 적용하여 정확한 클러스터( cluster)의 중심점을 다시 생성한다. 또한, 밀집도가 기준값 이상인 경우에만 한해서만 분석하여 계산 속도를 높인다.
도 8은 분석 구역간 밀집 중심점을 산출하는 단계(S40)의 설명도를 나타낸다.
분석 구역 6의 경우, 분석 구역 6을 비롯, 분석 구역 1, 2, 3, 5, 7, 9, 10, 11에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 1, 2, 3, 5, 7, 9, 10, 11의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 6의 밀집 중심점이 분석 구역간 밀집 중심점이 되게 된다.
아울러, 분석 구역 8의 경우에는, 분석 구역 8을 비롯, 분석 구역 3, 4, 7, 11, 12에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 3, 4, 7, 11의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 8의 밀집 중심점 및 분석 구역 12의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하게 된다.
마찬가지로, 분석 구역 12의 경우에는, 분석 구역 12를 비롯, 분석 구역 7, 8, 11, 15, 16에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 7, 11, 15, 16의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 8의 밀집 중심점 및 분석 구역 12의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하게 된다.
구체적으로, 분석 구역간 밀집 중심점은, 분석 구역간 밀집 중심점 사이의 거리가 최소가 되게 하는 위치에 의해 산출되는 것을 특징으로 한다.
도 8에서는 별도의 가중치를 적용하지 않았으나, 경우에 따라서는 S40 단계는, 해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 분석 구역간 밀집 중심점을 산출할 수도 있을 것이다.
도 9는 본 발명의 초점 위치 분석 방법에 따른 결과의 설명도를 나타낸다.
50개의 초점 데이터를 2차원 평면에 표시하였을 경우, 도 9에 나타낸 바와 같은 다양한 분포를 갖게 된다. 분포에 대해 직관적으로 고정 초점의 경우 밀집도가 높고 이동 초점의 경우 밀집도가 낮음을 확인할 수 있다. 본 발명의 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치 분석 시스템(100) 및 그 방법에 따르면, 초점 데이터 중 관심이 있는 고정 초점을 찾고, 이동 초점을 제거하기 위해서는 밀집도를 비교하는 군집 알고리즘을 사용하여 고정 초점을 추출할 수 있음을 확인할 수 있다.
상술한 바와 같이, 본 발명의 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치 분석 시스템(100) 및 그 방법에 따르면, 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있음을 알 수 있다.
100 : 초점 위치 분석 시스템
110 : 헤드 마운트 디스플레이
120 : 서버
111 : 렌더러
112 : 트레이서
121 : 데이터 저장부
122 : 분석부

Claims (7)

  1. (a) 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계;
    (b) 상기 N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해 각 분석 구역별로 밀집 중심점을 산출하는 단계; 및
    (c) 상기 (b) 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계;를 포함하되,
    상기 (b) 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치인 것을 특징으로 하는 눈의 초점 위치 분석 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 (c) 단계는,
    해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 상기 분석 구역간 밀집 중심점을 산출하는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
  5. 제1항에 있어서,
    상기 눈의 초점 위치 분석 방법은,
    상기 (a) 단계 이전에,
    연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계;를 더 포함하는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
  6. 제5항에 있어서,
    상기 그룹화하는 단계에서 그룹화된 각각의 그룹에 대해, 상기 (a) 단계 내지 상기 (c) 단계를 실시하되,
    하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
  7. 제1항에 있어서,
    상기 (a) 단계에서의 다수의 눈의 초점 데이터는,
    사용자가 착용 중인 헤드 마운트 디스플레이의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점인 것을 특징으로 하는 눈의 초점 위치 분석 방법.
KR1020170006134A 2017-01-13 2017-01-13 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법 KR101855105B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170006134A KR101855105B1 (ko) 2017-01-13 2017-01-13 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170006134A KR101855105B1 (ko) 2017-01-13 2017-01-13 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR101855105B1 true KR101855105B1 (ko) 2018-05-08

Family

ID=62187194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170006134A KR101855105B1 (ko) 2017-01-13 2017-01-13 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR101855105B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
CN107358149B (zh) 一种人体姿态检测方法和装置
Seer et al. Kinects and human kinetics: A new approach for studying pedestrian behavior
US10885775B2 (en) Monitoring a scene to analyze an event using a plurality of image streams
CN101243693B (zh) 用于实时探测及跟踪多个观察者眼睛的方法和电路布置
US8300935B2 (en) Method and system for the detection and the classification of events during motion actions
US8854469B2 (en) Method and apparatus for tracking persons and locations using multiple cameras
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US9373174B2 (en) Cloud based video detection and tracking system
KR102203810B1 (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
JP6425847B1 (ja) 画像処理装置、画像処理方法およびプログラム
CN101799867A (zh) 对真实世界视频和图像中的人的改善检测
CN107247926B (zh) 一种人体检测方法及装置
EP3951715A1 (en) Generation apparatus, generation method, and program
CN111325107B (zh) 检测模型训练方法、装置、电子设备和可读存储介质
KR101439037B1 (ko) 영상에서 객체를 추적하는 방법 및 장치
JP3655618B2 (ja) 歩行者年齢判定装置、歩行状態・歩行者年齢判定方法およびプログラム
CN111091025A (zh) 图像处理方法、装置和设备
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
CN106033613B (zh) 目标跟踪方法及装置
CN103854026B (zh) 一种识别方法及电子设备
KR101855105B1 (ko) 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법
US20230091536A1 (en) Camera Placement Guidance
Shahid et al. Eye-gaze and augmented reality framework for driver assistance
Ridwan Looming object detection with event-based cameras
Paletta et al. A computer vision system for attention mapping in SLAM based 3D models

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant