KR102081930B1 - 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법 - Google Patents

시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법 Download PDF

Info

Publication number
KR102081930B1
KR102081930B1 KR1020130062910A KR20130062910A KR102081930B1 KR 102081930 B1 KR102081930 B1 KR 102081930B1 KR 1020130062910 A KR1020130062910 A KR 1020130062910A KR 20130062910 A KR20130062910 A KR 20130062910A KR 102081930 B1 KR102081930 B1 KR 102081930B1
Authority
KR
South Korea
Prior art keywords
display
display area
content
display device
point
Prior art date
Application number
KR1020130062910A
Other languages
English (en)
Other versions
KR20140115906A (ko
Inventor
박효림
이도영
김용신
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US13/949,787 priority Critical patent/US8743021B1/en
Priority to EP13879216.3A priority patent/EP2976692A4/en
Priority to CN201380074935.8A priority patent/CN105190478B/zh
Priority to PCT/KR2013/006665 priority patent/WO2014148696A1/en
Publication of KR20140115906A publication Critical patent/KR20140115906A/ko
Application granted granted Critical
Publication of KR102081930B1 publication Critical patent/KR102081930B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • G06F15/025Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application
    • G06F15/0291Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application for reading, e.g. e-books
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서는 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법에 관한 것으로서, 보다 상세하게는 유저의 시선 위치에 기초하여 리딩 인터페이스를 디스플레이하고, 컨텐츠를 디스플레이하는 방법에 관한 것이다.
일 실시예에 따르면, 디스플레이 디바이스로서, 컨텐츠를 디스플레이하는 디스플레이 유닛으로서, 제 1 디스플레이 영역 및 제 2 디스플레이 영역을 포함함; 상기 디스플레이 디바이스의 전면의 이미지를 센싱하는 이미지 캡쳐링 유닛; 및 상기 디스플레이 유닛 및 상기 이미지 캡쳐링 유닛을 제어하고, 상기 센싱된 이미지로부터 상기 디스플레이 디바이스의 전방에 위치한 유저의 시선 위치(gaze location)를 검출하는 프로세서를 포함하고, 상기 프로세서는 상기 제 1 디스플레이 영역에서 제 1 리딩(reading) 인터페이스를 디스플레이하되, 상기 제 1 리딩 인터페이스는 상기 컨텐츠의 제 1 부분(part)을 디스플레이하고, 상기 제 1 디스플레이 영역 내의 제 1 지점에 대한 시선 위치를 디텍트하고, 상기 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 상기 제 2 디스플레이 영역 내의 제 2 지점에 대한 시선 위치가 디텍트되는 경우, 상기 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고 상기 컨텐츠의 제 2 부분을 상기 제 2 디스플레이 영역에 디스플레이하는, 디스플레이 디바이스를 제공한다.

Description

시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법 {DISPLAY DEVICE DETECTING GAZE LOCATION AND METHOD FOR CONTROLLING THEREOF}
본 명세서는 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법에 관한 것으로서, 보다 상세하게는 유저의 시선 위치에 기초하여 리딩 인터페이스를 디스플레이하고, 컨텐츠를 디스플레이하는 방법에 관한 것이다.
기술의 발전에 따라, 디스플레이 디바이스의 기능이 다양해지고 있다. 예를 들어, 디스플레이 디바이스의 경우, 이동 통신망의 발달, 무선 컨텐츠의 증가, 디바이스에 구비된 프로세서 및 메모리의 발전으로 인해 음악 또는 동영상 파일의 재생, 사진 촬영, 게임, TV 또는 라디오 방송 수신 등 복잡한 기능을 수행할 수 있게 되었다. 이에 의해, 유저는 시간과 장소에 구애됨이 없이 디스플레이 디바이스를 통하여 다양한 정보를 이용할 수 있게 되었다.
한편, 디스플레이 디바이스의 기능이 다양해짐에 따라, 디스플레이 디바이스에 대한 입력 방법이 다양화되었다. 디스플레이 디바이스에 배치된 하드웨어키를 이용한 입력뿐만이 아니라, 디스플레이 디바이스의 디스플레이 영역에 배치된 소프트웨어를 이용한 터치 입력이 가능해졌다. 또한, 디스플레이 디바이스는 제스쳐 입력 및 음성 입력을 디텍팅하는 것이 가능해졌다. 뿐만 아니라, 최근 디스플레이 디바이스에 장착된 카메라를 통해 유저의 눈동자의 움직임 또는 유저의 얼굴의 방향을 디텍트하여, 컨텐츠를 이용할 수도 있다.
일 실시예에 따르면, 본 명세서는 디텍트된 유저의 시선 위치에 기초하여, 컨텐츠를 디스플레이 영역에 디스플레이하고자 하는 목적을 가지고 있다.
또한, 본 명세서는 복수의 디스플레이 영역 중 일부에서 컨텐츠를 실행하는 도중에 시선 위치를 인식하여, 컨텐츠가 실행되지 않는 다른 영역에서 실행중인 컨텐츠와 동일한 컨텐츠를 실행하고자 하는 목적을 가지고 있다.
또한, 본 명세서는 복수의 디스플레이 영역에 컨텐츠가 디스플레이된 상태에서, 디스플레이 디바이스가 유저의 시선 위치를 디텍트하여, 컨텐츠의 다음 부분 또는 이전 부분을 디스플레이 영역에 제공하고자 하는 목적을 가지고 있다.
상기와 같은 문제를 해결하기 위해, 일 실시예에 따르면, 디스플레이 디바이스로서, 컨텐츠를 디스플레이하는 디스플레이 유닛으로서, 제 1 디스플레이 영역 및 제 2 디스플레이 영역을 포함함; 상기 디스플레이 디바이스의 전면의 이미지를 센싱하는 이미지 캡쳐링 유닛; 및 상기 디스플레이 유닛 및 상기 이미지 캡쳐링 유닛을 제어하고, 상기 센싱된 이미지로부터 상기 디스플레이 디바이스의 전방에 위치한 유저의 시선 위치(gaze location)를 검출하는 프로세서를 포함하고, 상기 프로세서는 상기 제 1 디스플레이 영역에서 제 1 리딩(reading) 인터페이스를 디스플레이하되, 상기 제 1 리딩 인터페이스는 상기 컨텐츠의 제 1 부분(part)을 디스플레이하고, 상기 제 1 디스플레이 영역 내의 제 1 지점에 대한 시선 위치를 디텍트하고, 상기 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 상기 제 2 디스플레이 영역 내의 제 2 지점에 대한 시선 위치가 디텍트되는 경우, 상기 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고 상기 컨텐츠의 제 2 부분을 상기 제 2 디스플레이 영역에 디스플레이하는, 디스플레이 디바이스를 제공한다.
또한, 일 실시예에 따르면, 디스플레이 디바이스의 제어 방법으로서, 제 1 디스플레이 영역에서 제 1 리딩 인터페이스를 디스플레이하는 단계로서, 상기 제 1 리딩 인터페이스는 컨텐츠의 제 1 부분을 디스플레이함; 상기 제 1 디스플레이 영역 내의 제 1 지점에 대한 시선 위치를 디텍트하는 단계; 및 상기 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 지점에 대한 시선 위치가 디텍트되는 경우, 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고 상기 컨텐츠의 제 2 부분을 상기 제 2 디스플레이 영역에 디스플레이하는 단계를 제공한다.
일 실시예에 의하면, 유저는 디스플레이 디바이스에 디스플레이된 컨텐츠를 이용하기 위해 터치 입력, 제스쳐 입력과 같은 별도의 동작이 필요한 입력 없이 유저의 눈의 움직임만으로 컨텐츠의 전환 또는 스크롤링을 용이하게 수행할 수 있다.
또한, 일 실시예에 의하면, 디스플레이 디바이스는 복수의 디스플레이 영역 중 일부의 영역에 대해서만 컨텐츠가 디스플레이되는 도중에 디텍트된 유저의 시선만으로 복수의 디스플레이 영역 중 나머지 영역에 대해서도 동일한 컨텐츠를 디스플레이할 수 있다.
또한, 일 실시예에 의하면, 유저는 기 설정된 위치에 대하여 눈을 움직이는 것만으로도 현재 이용중인 컨텐츠의 다음 부분 또는 이전 부분의 컨텐츠도 용이하게 이용할 수 있다.
또한, 일 실시예에 의하면, 유저는 다양한 디스플레이 디바이스를 이용 중에, 눈 움직임을 통해 컨텐츠의 내용을 자유롭게 전환하여 이용할 수 있다.
도 1은 본 명세서의 디스플레이 디바이스의 블록도를 나타낸다.
도 2는 본 명세서의 디스플레이 디바이스의 실시예를 나타내는 도면이다.
도 3은 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 1 실시예를 나타내는 도면이다.
도 4는 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 2 실시예를 나타내는 도면이다.
도 5는 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 3 실시예를 나타내는 도면이다.
도 6은 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 4 실시예를 나타내는 도면이다.
도 7은 본 명세서의 디스플레이 디바이스의 제어 방법의 순서도를 나타낸다.
도 8은 본 명세서의 디스플레이 디바이스의 제어 방법의 순서도를 나타낸다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다.
도 1은 본 명세서의 디스플레이 디바이스의 블록도를 나타낸다. 보다 상세하게는, 디스플레이 디바이스(100)는 디스플레이 유닛(110), 이미지 캡쳐링 유닛(120) 및 프로세서(130)를 포함할 수 있다.
먼저, 디스플레이 디바이스(100)는 PDA(Personel Digital Assistant), 노트북, 태블릿 PC, 스마트폰 등 이미지 디스플레이가 가능한 다양한 디지털 디바이스를 포함할 수 있다. 또한, 디스플레이 디바이스(100)는 카메라를 포함하는 다양한 디지털 디바이스를 포함할 수 있다.
디스플레이 유닛(110)은 디스플레이 스크린에 이미지를 출력할 수 있다. 또한, 디스플레이 유닛(110)은 프로세서(130)에 의해 실행되는 컨텐츠 또는 프로세서(130)의 제어 명령에 기초하여 이미지를 출력할 수 있다. 예를 들어, 컨텐츠는 각종 동영상, 이미지 등을 포함할 수 있다. 또한, 본 명세서에서, 컨텐츠는 서적 컨텐츠에 해당할 수 있다.
본 명세서에서, 디스플레이 유닛(110)은 제 1 디스플레이 영역 및 제 2 디스플레이 영역을 포함할 수 있다. 제 1 디스플레이 영역 및 제 2 디스플레이 영역은 디스플레이 유닛(110)의 디스플레이 스크린 중 적어도 일부 영역에 해당할 수 있다. 또한, 본 명세서에서, 디스플레이 유닛(110)은 제 1 리딩 인터페이스 및 제 2 리딩 인터페이스를 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 유닛(110)은 제 1 디스플레이 영역에 제 1 리딩 인터페이스를 디스플레이하고, 제 2 디스플레이 영역에 제 2 리딩 인터페이스를 디스플레이할 수 있다. 이와 관련하여, 도 3에서 다시 설명하도록 한다.
이미지 캡쳐링 유닛(120)은 이미지를 캡쳐할 수 있다. 보다 상세하게는, 이미지 캡쳐링 유닛(120)은 앞 방향의 이미지를 캡쳐할 수 있다. 여기에서, 앞 방향은 이미지 캡쳐링 유닛(120)이 향하고 있는 방향에 해당할 수 있다. 또한, 이미지 캡쳐링 유닛(120)은 화각 영역 내의 이미지를 센싱하여 프로세서(130)에 제공할 수 있다. 여기에서, 화각 영역은 이미지를 센싱하는 때에 일정한 화면 내에 포함시킬 수 있는 수평 및 수직 시야각의 범위를 나타낸다. 또한, 이미지 캡쳐링 유닛(120)은 디스플레이 디바이스(100)의 전면 또는 후면에 위치할 수 있다.
본 명세서에서, 이미지 캡쳐링 유닛(120)은 디스플레이 디바이스(100)의 전면의 이미지를 센싱할 수 있다. 보다 상세하게는, 이미지 캡쳐링 유닛(120)은 디스플레이 디바이스(100)의 전면을 향한 유저의 시선 위치가 포함된 이미지를 센싱할 수 있다. 또한, 이미지 캡쳐링 유닛(120)은 디스플레이 디바이스(100)의 전면을 향한 유저의 얼굴 방향이 포함된 이미지를 센싱할 수 있다. 여기에서, 디스플레이 디바이스(100)의 전면은 디스플레이 디바이스(100)가 유저를 향하는 면 또는 디스플레이 디바이스(100)의 디스플레이 유닛(110)이 위치하는 면에 해당할 수 있다.
프로세서(130)는 데이터 통신을 통해 수신된 컨텐츠, 또는 스토리지 유닛(미도시)에 저장된 컨텐츠 등을 실행할 수 있다. 또한, 프로세서(130)는 디스플레이 디바이스(100)의 각 유닛들을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.
본 명세서에서, 프로세서(100)는 제 1 디스플레이 영역에 제 1 리딩 인터페이스를 디스플레이할 수 있다. 또한, 본 명세서에서, 프로세서(100)는 제 1 디스플레이 영역 내의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다. 또한, 본 명세서에서, 프로세서(100)는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역 내의 제 2 지점에 대한 시선 위치가 디텍트된 경우, 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고 컨텐츠의 제 2 부분을 제 2 디스플레이 영역에 디스플레이할 수 있다. 이와 관련하여, 도 3에서 다시 설명하도록 한다.
한편, 도 1에 도시되지 않았으나, 디스플레이 디바이스(100)는 파워 유닛, 센서 유닛, 스토리지 유닛, 커뮤니케이션 유닛을 포함할 수 있다. 파워 유닛(미도시)는 디스플레이 디바이스(100) 내부의 배터리 또는 외부 전원과 연결되는 파워 소스로, 디스플레이 디바이스(100)에 파워를 공급할 수 있다.
센서 유닛(미도시)는 디스플레이 디바이스(100)에 장착된 적어도 하나의 센서를 사용하여 입력 신호를 디텍트하고, 디텍트된 결과에 따른 입력 신호를 프로세서(130)에 전달할 수 있다. 또한, 센서 유닛(미도시)는 유저의 다양한 입력 및 유저의 환경을 센싱하여, 프로세서(130)가 그에 따른 동작을 수행할 수 있도록 센싱 결과를 전달할 수 있다.
스토리지 유닛(미도시)는 동영상, 오디오, 이미지, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 스토리지 유닛(미도시)는 프로세서(1300의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 예를 들어, 스토리지 유닛(미도시)는 디스플레이 디바이스(100) 내부에 위치할 수 있다. 또한, 예를 들어, 스토리지 유닛(미도시)는 디스플레이 디바이스(100) 내부가 아닌 외부 스토리지 유닛에 다양한 디지털 데이터를 저장할 수도 있다.
커뮤니케이션 유닛(미도시)는 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송/수신할 수 있다.
본 명세서의 일 실시예로서, 디스플레이 디바이스(100)가 수행하는 동작들은 프로세서(130)에 의해 제어될 수 있다. 또한, 디스플레이 디바이스(100)의 동작들은 스토리지 유닛(미도시)에 저장되어 프로세서(130)에 의해 구동되는 애플리케이션에 의해 제어될 수도 있다. 편의를 위해, 도면 및 이하의 설명에서는 이러한 동작들을 통칭하여 디스플레이 디바이스(100)가 수행/제어하는 것으로 도시 및 설명하도록 한다.
도 1에 도시된 디스플레이 디바이스(100)는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디스플레이 디바이스(100)의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디스플레이 디바이스(100)의 엘리먼트들은 디바이스의 설계에 따라 하나의 칩 또는 복수의 칩으로 장착될 수 있다.
도 2는 본 명세서의 디스플레이 디바이스의 실시예를 나타내는 도면이다. 보다 상세하게는, 도 2a는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)을 포함하는 디스플레이 디바이스(100)를 나타내고, 도 2b는 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21)을 포함하는 디스플레이 디바이스(200)를 나타낸다.
도 2a에 도시된 바와 같이, 디스플레이 디바이스(100)는 하나의 디스플레이 유닛(110)을 포함할 수 있다. 또한, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)을 포함할 수 있다. 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20) 각각은 디스플레이 유닛(110)의 일부 영역에 해당할 수 있다. 예를 들어. 도 2a를 참조하면, 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)은 각각 디스플레이 유닛(110)의 1/2 영역에 해당할 수 있다. 예를 들어, 도 2a에는 도시되지 않았으나, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)외에 제 3 또는 제 4 디스플레이 영역을 포함할 수도 있다.
일 예로서, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)을 사용하여 하나의 컨텐츠를 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)을 사용하여, 연속성이 있는 하나의 컨텐츠를 순서대로 디스플레이할 수 있다. 여기에서, 연속성이 있는 컨텐츠는 e-book과 같은 문서 컨텐츠를 포함할 수 있다. 예를 들어, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 순서상 앞에 있는 컨텐츠의 일부를 디스플레이하고, 제 2 디스플레이 영역(20)에는 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠의 다음(following) 부분을 디스플레이할 수 있다.
다른 일 예로서, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에 각각 상이한 컨텐츠를 디스플레이할 수 있다. 예를 들어, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 문서 컨텐츠를 디스플레이하고, 제 2 디스플레이 영역(20)에 동영상 컨텐츠를 디스플레이할 수 있다. 또한, 예를 들어, 디스플레이 디바이스(100)는 디스플레이 유닛(110) 중 제 1 디스플레이 영역(10)에는 문서 컨텐츠를 디스플레이하고, 제 2 디스플레이 영역(20)은 어떠한 컨텐츠도 디스플레이하지 않고 디액티베이트(deactivate)할 수도 있다.
또한, 디스플레이 디바이스(100)는 랜드스케이프(landscape) 모드 또는 포트레이트(portrait) 모드로 이용될 수 있다. 여기에서, 랜드스케이프 모드는 디바이스를 가로로 이용하는 모드를 나타내고, 포트레이트 모드는 디바이스를 세로로 이용하는 모드를 나타낼 수 있다. 예를 들어, 도 2a에서는, 디스플레이 디바이스(100)는 랜드스케이프 모드로 이용 중인 상태를 나타낸다. 또한, 예를 들어, 디스플레이 디바이스(100)는 포트레이트 모드로 이용되는 경우, 디스플레이 유닛(110)을 좌우 또는 상하로 영역을 분할되어 이용될 수 있다.
또한, 디스플레이 디바이스(100)는 디바이스에 장착된 이미지 캡쳐링 유닛(120)을 이용하여 유저의 시선 위치를 디텍트할 수 있다. 여기에서, 유저의 시선 위치는 디스플레이 디바이스(100)에 대한 유저의 눈동자의 위치를 나타낼 수 있다. 또한, 유저의 시선 위치는 디스플레이 디바이스(100)에 대한 유저의 얼굴의 방향을 나타낼 수 있다.
다음으로, 도 2b를 참조하면, 디스플레이 디바이스(200)는 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21)을 포함할 수 있다. 여기에서, 디스플레이 디바이스(200)는 폴더블 디스플레이 디바이스에 해당할 수 있다. 예를 들어, 도 2b에 도시된 바와 같이, 디스플레이 디바이스(200)는 제 1 디스플레이 유닛(11)과 제 2 디스플레이 유닛(21)을 별개의 디스플레이 유닛으로 포함할 수 있다. 또한, 예를 들어, 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21)은 하나의 디스플레이 유닛으로서 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21)이 서로 마주할 수도 있다.
또한, 디스플레이 디바이스(200)는 도 2a에서 상술한 바와 같이, 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21)을 사용하여 하나의 컨텐츠를 디스플레이할 수 있다. 또한, 디스플레이 디바이스(200)는 상술한 바와 같이, 제 1 디스플레이 유닛(11) 및 제 2 디스플레이 유닛(21) 각각에서 상이한 컨텐츠를 디스플레이할 수 있다.
또한, 도 2에는 도시되지 않았으나, 디스플레이 디바이스(100)는 제 1 디스플레이 영역 및 제 2 디스플레이 영역을 포함하는 HMD(Head Mounted Display)를 포함할 수도 있다. 한편, 도 3 내지 도 6에서는, 도 2a에 도시된 랜드스케이프 모드로 디스플레이 디바이스(100)를 이용 중인 것으로 가정하고 설명하도록 한다. 다만, 도 3 내지 도 6의 실시예들은, 도 2b에 도시된 디스플레이 디바이스(200)에서도 동일하게 적용될 수 있다.
도 3은 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 1 실시예를 나타내는 도면이다. 보다 상세하게는, 도 3a는 유저(300)의 제 1 디스플레이 영역(10)에 대한 시선 위치를 디텍트하고, 도 3b는 유저의 제 2 디스플레이 영역(20)에 대한 시선 위치를 디텍트하고, 도 3c는 제 2 디스플레이 영역(20)에서 컨텐츠가 디스플레이되는 것을 나타낸다.
먼저, 도 3a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 제 1 리딩(reading) 인터페이스를 디스플레이할 수 있다. 여기에서, 제 1 리딩 인터페이스는 리딩과 관련된 컨텐츠를 디스플레이하기 위한 인터페이스에 해당할 수 있다. 예를 들어, 리딩 인터페이스는 이-북(e-book) 어플리케이션을 포함할 수 있다. 이 경우, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)을 디액티베이트하거나, 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠와 상이한 컨텐츠를 제 2 디스플레이 영역(20)에 디스플레이될 수 있다. 예를 들어, 도 3a를 참조하면, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에 홈 스크린(home screen)을 디스플레이할 수 있다.
또한, 디스플레이 디바이스(100)는 제 1 리딩 인터페이스에 컨텐츠의 제 1 부분(1)을 디스플레이할 수 있다. 여기에서, 제 1 리딩 인터페이스에 디스플레이된 컨텐츠는 이-북(e-book) 컨텐츠에 해당할 수 있다. 또한, 제 1 리딩 인터페이스에 디스플레이된 컨텐츠는 연속성을 갖는 컨텐츠에 해당할 수 있다. 또한, 컨텐츠의 제 1 부분(1)은 컨텐츠의 임의의 부분에 해당할 수 있다. 예를 들어, 컨텐츠의 제 1 부분(1)은 컨텐츠의 처음 부분, 중간 부분에 해당할 수 있다.
다음으로, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 내의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다. 예를 들어, 도 2에서 상술한 바와 같이, 시선 위치는 디스플레이 디바이스(100)에 대하여 유저(300)의 눈(310) 또는 눈동자가 향하는 지점에 해당할 수 있다. 또한, 예를 들어, 시선 위치는 디스플레이 디바이스(100)에 대하여 유저(300)의 얼굴이 향하는 지점에 해당할 수 있다.
또한, 제 1 지점은 제 1 디스플레이 영역(10) 내의 임의의 지점에 해당할 수 있다. 예를 들어, 도 3a를 참조하면, 제 1 지점은 제 1 디스플레이 영역(10)의 하단부(10b)에 위치할 수 있다. 한편, 디스플레이 디바이스(100)는 유저의 설정에 의해, 제 1 지점을 제 1 디스플레이 영역(10) 내의 특정 지점으로 설정할 수도 있다.
다음으로, 도 3b를 참조하면, 디스플레이 디바이스(100)는 제 2 디스플레이 영역 내의 제 2 지점에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 2 지점은 제 2 디스플레이 영역(20) 내의 임의의 지점에 해당할 수 있다. 예를 들어, 도 3b를 참조하면, 제 2 지점(40)은 제 2 디스플레이 영역(20)의 상단 경계부(30)에 위치하는 일 지점에 해당할 수 있다. 또한, 여기에서, 제 2 지점은 제 2 디스플레이 영역(20)의 주위에 위치한 디스플레이 디바이스(100)의 테두리, 즉 베젤(bezel)의 일 지점에 해당할 수 있다.
한편, 도 3b와 관련하여, 디스플레이 디바이스(100)는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 기 설정된 시간은 유저(300)의 설정 또는 자동으로 설정될 수 있다. 예를 들어, 기 설정된 시간은 5초에 해당할 수 있다. 유저(300)로부터 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트하는 것은 제 1 디스플레이 영역(10)을 이용한 후 이어서 제 2 디스플레이 영역(20)을 이어서 이용하고자 하는 유저(300)의 의사를 나타낼 수 있다.
다음으로, 도 3c를 참조하면, 디스플레이 디바이스(100)는 제 1 지점에 대한 시선이 디텍트된 후 기 설정된 시간 이내에 디텍트된 제 2 지점에 대한 시선 위치에 기초하여, 제 2 디스플레이 영역(20)에서 제 2 리딩 인터페이스를 디스플레이할 수 있다. 즉, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에서 유저(300)의 시선 위치가 디텍트되는 동안에는 제 2 디스플레이 영역(20)에 리딩 인터페이스를 디스플레이하지 않을 수 있다. 여기에서, 제 2 리딩 인터페이스는 상술한 제 1 리딩 인터페이스와 동일한 컨텐츠를 제공하는 인터페이스에 해당할 수 있다. 예를 들어, 제 1 리딩 인터페이스에 이-북(e-book) 컨텐츠가 제공되는 경우, 디스플레이 디바이스(100)는 제 2 리딩 인터페이스에 동일한 이-북(e-book) 컨텐츠를 제공할 수 있다.
또한, 디스플레이 디바이스(100)는 제 1 지점에 대한 시선이 디텍트된 후 기 설정된 시간 이내에 디텍트된 제 2 지점에 대한 시선 위치에 기초하여, 컨텐츠의 제 2 부분(2)을 제 2 디스플레이 영역(20)에 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 디바이스(100)는 제 2 리딩 인터페이스가 디스플레이된 제 2 디스플레이 영역(20)에 컨텐츠의 제 2 부분(2)을 디스플레이할 수 있다. 여기에서, 제 2 부분(2)은 제 1 디스플레이 유닛(10)에 디스플레이된 제 1 부분(1)의 연속된 다음(following) 부분에 해당할 수 있다. 예를 들어, 컨텐츠가 페이지 경계가 없는 문서인 경우, 제 2 부분(2)은 제 1 부분(1)의 다음 텍스트에 해당할 수 있다. 또한, 예를 들어, 컨텐츠가 페이지 경계가 있는 문서인 경우, 제 2 부분(2)은 제 1 부분(1)의 다음 페이지에 해당할 수 있다.
상술한 실시예를 통해, 디스플레이 디바이스(100)는 디스플레이 유닛에 대한 터치 입력, 제스쳐 입력이 아닌 유저의 시선 위치의 변화에 의해서, 컨텐츠 중 일부의 이동 또는 전환이 가능하다.
한편, 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선의 부재(lack)가 디텍트된 경우, 디스플레이 디바이스(100)는 컨텐츠의 제 2 부분을 제 1 디스플레이 영역(10)에 디스플레이할 수 있다. 이 경우, 제 1 지점은 제 1 디스플레이 영역(10)의 하단부(10b)에 해당할 수 있다. 즉, 제 1 디스플레이 영역(10)의 하단부(10b)에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20)을 향한 시선 위치가 디텍트되지 않는 경우는, 유저(300)가 제 1 디스플레이 영역(10)에서 제 1 부분(1)의 다음 부분인 제 2 부분(2)을 이용하고자 하는 의사로 볼 수 있기 때문이다.
도 4는 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 2 실시예를 나타내는 도면이다. 보다 상세하게는, 도 4a는 유저(300)의 제 1 디스플레이 영역(10)에 대한 시선 위치를 디텍트하고, 도 4b는 유저(300)의 제 2 디스플레이 영역(20)에 대한 시선 위치를 디텍트하고, 도 4c는 제 2 디스플레이 영역(20)에서 컨텐츠가 디스플레이되는 것을 나타낸다.
먼저, 도 4a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 제 1 리딩 인터페이스를 디스플레이할 수 있다. 예를 들어, 도 3에서 상술한 바와 같이, 제 1 리딩 인터페이스는 이-북(e-book) 어플리케이션에 해당할 수 있다. 또한, 디스플레이 디바이스(100)는 제 1 리딩 인터페이스에 컨텐츠의 제 2 부분(2)을 디스플레이할 수 있다. 여기에서, 제 2 부분(2)은 도 3에서 상술한 바와 같이, 컨텐츠의 제 1 부분(1)의 다음 부분에 해당할 수 있다.
이때, 도 3에서 상술한 바와 같이, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에는 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠와 상이한 컨텐츠를 디스플레이할 수 있다. 예를 들어, 도 4a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 제 1 리딩 인터페이스를 디스플레이하고, 제 2 디스플레이 영역(20)에는 홈 스크린을 디스플레이할 수 있다.
또한, 도 4a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 내의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 1 지점은 제 1 디스플레이 영역(10)의 임의의 영역에 해당할 수 있다. 예를 들어, 도 4a를 참조하면, 제 1 지점은 제 1 디스플레이 영역(10)의 상단부(10a)에 위치할 수 있다.
다음으로, 도 4b를 참조하면, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 2 지점은 제 2 디스플레이 영역(20) 내의 임의의 지점에 해당할 수 있다. 예를 들어, 도 4b를 참조하면, 제 2 지점은 제 2 디스플레이 영역(20)의 상단 경계부(30)에 위치하는 일 지점에 해당할 수 있다. 한편, 도 3에서 상술한 바와 같이, 디스플레이 디바이스(100)는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트할 수 있다.
다음으로, 도 4c를 참조하면, 디스플레이 디바이스(100)는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 디텍트된 제 2 지점에 대한 시선 위치에 기초하여, 제 2 디스플레이 영역(20)에서 제 2 리딩 인터페이스를 디스플레이할 수 있다. 여기에서, 제 2 리딩 인터페이스는 상술한 제 1 리딩 인터페이스와 동일한 컨텐츠를 디스플레이할 수 있다.
또한, 도 4c를 참조하면, 디스플레이 디바이스(100)는 디텍트된 제 2 지점에 대한 시선 위치에 기초하여, 컨텐츠의 제 1 부분(1)을 제 2 디스플레이 영역(20)에 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 디바이스(100)는 제 2 리딩 인터페이스가 디스플레이된 제 2 디스플레이 영역(20)에 컨텐츠의 제 1 부분(1)을 디스플레이할 수 있다. 여기에서, 제 1 부분(2)은 제 1 디스플레이 유닛(10)에 디스플레이된 제 2 부분(2)의 이전 부분에 해당할 수 있다. 예를 들어, 컨텐츠가 페이지 경계가 없는 문서인 경우, 제 1 부분(1)은 제 2 부분(2)의 이전 텍스트에 해당할 수 있다. 또한, 예를 들어, 컨텐츠가 페이지 경계가 있는 문서인 경우, 제 1 부분(1)은 제 2 부분(2)의 이전 페이지에 해당할 수 있다.
상술한 실시예를 통해, 디스플레이 디바이스(100)는 디스플레이 유닛에 대한 터치 입력, 제스쳐 입력이 아닌 유저의 시선 위치의 변화에 의해서, 컨텐츠의 일부의 이동 또는 전환이 가능하다.
한편, 도 3 및 도 4에 도시된 실시예는, 각각 제 1 지점에 대한 상이한 시선 위치에 따라 컨텐츠의 일부의 이동 방향이 상이한 경우로서, 상술한 실시예와 반대인 경우도 가능할 수 있다. 예를 들어, 제 1 디스플레이 영역(10)의 하단부(10b)에 대한 시선 위치를 디텍트한 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트하는 경우, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠의 이전 부분을 디스플레이할 수도 있다. 또한, 예를 들어, 제 1 디스플레이 영역(10)의 상단부(10a)에 대한 시선 위치를 디텍트한 후 기 설정된 시간 이내에 제 2 디스플레이 영역(20) 내의 제 2 지점에 대한 시선 위치를 디텍트하는 경우, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠의 다음 부분을 디스플레이할 수도 있다.
또한, 도 3 및 도 4의 실시예는, 제 1 디스플레이 영역(10)의 상단부(10a) 및 하단부(20a)에 대한 시선 위치에 기초하여 설명하였으나, 제 2 디스플레이 영역(20)의 상단부(20a) 및 하단부(20b)에 대한 시선 위치가 디텍트되는 경우에도 동일하게 적용될 수 있다.
도 5는 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 3 실시예를 나타내는 도면이다. 보다 상세하게는, 도 5a는 유저(300)의 제 2 디스플레이 영역(20)에 대한 시선 위치를 디텍트하고, 도 5b는 유저(300)의 제 2 디스플레이 영역(20)의 하단부(20b)에 대한 시선 위치를 디텍트하고, 도 5c는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에서 컨텐츠의 다음 부분이 디스플레이되는 것을 나타낸다.
먼저, 도 5a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에 각각 제 1 리딩 인터페이스 및 제 2 리딩 인터페이스를 디스프레이할 수 있다. 보다 상세하게는, 디스플레이 디바이스(100)는 제 1 리딩 인터페이스에 컨텐츠의 제 1 부분(1)을, 제 2 리딩 인터페이스에 컨텐츠의 제 2 부분(2)을 디스플레이할 수 있다. 도 3에서 상술한 바와 같이, 제 2 부분(2)은 제 1 디스플레이 영역(10)에 디스플레이된 컨텐츠의 제 1 부분(1)의 다음 부분에 해당할 수 있다.
일 예로서, 도 5a에 도시된 컨텐츠의 제 1 부분(1) 및 제 2 부분(2)은, 도 3에서 상술한 바와 같이, 제 1 디스플레이 영역(10)에서 컨텐츠의 제 1 부분(1)이 디스플레이된 후 제 2 디스플레이 영역(20)에 대한 시선 위치를 디텍트한 후 제 2 디스플레이 영역(20)에 컨텐츠의 제 2 부분(2)을 디스플레이한 경우에 해당할 수 있다. 다른 일 예로서, 도 5a에 도시된 컨텐츠의 제 1 부분(1) 및 제 2 부분(2)은, 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에 리딩 인터페이스가 디스플레이되어, 제 1 부분(1) 및 제 2 부분(2)이 동시에 디스플레이된 경우에 해당할 수도 있다.
또한, 도 5a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20) 내의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 1 지점은 제 2 디스플레이 영역(20) 내의 임의의 위치에 해당할 수 있다. 이를 통해, 디스플레이 디바이스(100)는 유저(300)가 제 2 부분(2)을 이용 중임을 인식할 수 있다.
다음으로, 도 5b를 참조하면, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20) 내의 제 2 지점(40a)에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 2 지점(40a)은 제 2 디스플레이 영역(2)의 하단부(20b)의 좌측에 위치할 수 있다. 예를 들어, 제 2 지점(40a)은 도 5b에 도시된 바와 같이, 제 2 디스플레이 영역(2)의 하단 경계부의 좌측에 해당하 수 있다. 즉, 디스플레이 디바이스(100)는 유저(300)로부터 제 2 디스플레이 영역(20) 내의 임의의 영역에 위치한 제 1 지점에 대한 시선 위치를 디텍트한 후 하단부의 좌측에 위치한 제 2 지점(40a)에 대한 시선 위치를 디텍트할 수 있다. 또한, 제 2 지점(40a)은 유저의 설정에 의해, 제 2 디스플레이 영역(20) 내의 특정 지점으로 설정될 수도 있다. 예를 들어, 제 2 지점(40a)는 제 2 디스플레이 영역(20) 내에 아이콘 이미지의 형태로 설정될 수도 있다.
다음으로, 도 5c를 참조하면, 디텍트된 제 2 지점(40a)에 대한 시선 위치에 기초하여, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에 컨텐츠의 제 3 부분(3)을 디스플레이할 수 있다. 여기에서, 제 3 부분(3)은 컨텐츠의 제 2 부분(2)의 다음 부분에 해당할 수 있다. 예를 들어, 컨텐츠가 페이지 경계가 없는 문서인 경우, 제 3 부분(3)은 제 2 부분(2)의 다음 텍스트에 해당할 수 있다. 또한, 예를 들어, 컨텐츠가 페이지 경계가 있는 문서인 경우, 제 3 부분(3)은 제 2 부분(2)의 다음 페이지에 해당할 수 있다.
또한, 도 5c를 참조하면, 디텍트된 제 2 지점(40a)에 대한 시선 위치에 기초하여, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 컨텐츠의 제 2 부분(2)을 디스플레이할 수 있다. 즉, 디스플레이 디바이스(100)는 디텍트된 제 2 지점(40a)에 대한 시선 위치에 기초하여, 제 2 지점(40a)에 대한 시선 위치가 디텍트되기 이전에 제 1 디스플레이 영역(10)에 디스플레이 중이었던 컨텐츠의 제 1 부분(1)을 제 2 부분(2)으로 전환하여 디스플레이할 수 있다. 이는, 디스플레이 디바이스(100)가 유저(300)의 제 2 지점(40a)에 대한 시선 위치를 디텍트하는 경우, 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에 모두에 대한 컨텐츠의 전환을 위한 유저(300)의 의사로 인식할 수 있기 때문이다.
상술한 실시예를 통해, 유저(300)는 디스플레이 디바이스(100)에 디스플레이된 컨텐츠에 대한 이용이 끝난 이후에, 특정 위치를 바라봄으로써, 디스플레이 유닛에 디스플레이된 컨텐츠가 다음 부분으로 이동하게 할 수 있다.
도 6은 본 명세서의 시선 위치에 기초하여 컨텐츠를 디스플레이하는 방법의 제 4 실시예를 나타내는 도면이다. 보다 상세하게는, 도 6a는 유저(300)의 제 2 디스플레이 영역(20)에 대한 시선 위치를 디텍트하고, 도 6b는 유저(300)의 제 2 디스플레이 영역(20)의 하단부(20b)에 대한 시선 위치를 디텍트하고, 도 6c는 제 2 디스플레이 영역(20)에서 컨텐츠의 다음 부분이 디스플레이되는 것을 나타낸다.
먼저, 도 6a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20)에 각각 제 1 리딩 인터페이스 및 제 2 리딩 인터페이스를 디스플레이할 수 있다. 도 3에서 상술한 바와 같이, 제 1 리딩 인터페이스 및 제 2 리딩 인터페이스는 동일한 컨텐츠를 디스플레이하는 인터페이스에 해당할 수 있다. 또한, 도 5에서 상술한 바와 같이, 디스플레이 디바이스(100)는 제 1 리딩 인터페이스에 컨텐츠의 제 1 부분(1)을, 제 2 리딩 인터페이스에 컨텐츠의 제 2 부분(2)을 디스플레이할 수 있다. 또한, 도 6a에 도시된 바와 같이, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20) 내의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다
다음으로, 도 6b를 참조하면, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)의 제 2 지점(40b)에 대한 시선 위치를 디텍트할 수 있다. 여기에서, 제 2 지점(40b)은 제 2 디스플레이 영역(20)의 하단부(20b)의 우측에 위치할 수 있다. 예를 들어, 제 2 지점(40b)은 도 6b에 도시된 바와 같이, 제 2 디스플레이 영역(20)의 하단 경계부의 우측에 해당할 수 있다. 또한, 예를 들어, 제 2 지점(40b)는 제 2 디스플레이 영역(20) 내의 특정 영역에 아이콘 이미지의 형태로 설정될 수도 있다. 또한, 상술한 도 5b의 제 2 지점(40a)과 도 6b의 제 2 지점(40b)은 상이한 영역에 위치할 수 있다.
다음으로, 도 6c를 참조하면, 디텍트된 제 2 지점(40b)에 대한 시선 위치에 기초하여, 디스플레이 디바이스(100)는 제 2 디스플레이 영역(20)에 컨텐츠의 제 3 부분(3)을 디스플레이할 수 있다. 여기에서, 제 3 부분(3)은 컨텐츠의 제 2 부분(2)의 다음 부분에 해당할 수 있다.
한편, 도 6c를 참조하면, 디텍트된 제 2 지점(40b)에 대한 시선 위치에 기초하여, 디스플레이 디바이스(100)는 제 1 디스플레이 영역(10)에 컨텐츠의 제 1 부분(1)의 디스플레이를 유지할 수 있다. 즉, 디스플레이 디바이스(100)는 디텍트된 제 2 지점(40b)에 대한 시선 위치에 기초하여, 제 2 지점(40b)에 대한 시선 위치가 디텍트되기 이전에 제 1 디스플레이 영역(10)에 디스플레이 중이었던 컨텐츠의 제 1 부분(1)을 계속하여 디스플레이할 수 있다. 이는, 디스플레이 디바이스(100)가 유저(300)의 제 2 지점(40b)에 대한 시선 위치를 디텍트하는 경우, 제 2 디스플레이 영역(20)에 대한 컨텐츠의 전환만을 위한 유저(300)의 의사로 인식할 수 있기 때문이다.
상술한 실시예를 통해, 유저(300)는 디스플레이 디바이스(100)에 디스플레이된 컨텐츠에 대한 이용이 끝난 이후에, 특정 위치를 바라봄으로써, 디스플레이 유닛에 디스플레이된 컨텐츠가 다음 부분으로 이동하게 할 수 있다.
한편, 도 5 및 도 6에서 상술한 실시예는, 각각 시선 위치의 방향에 따라 컨텐츠의 전환 결과가 상이한 경우로서, 상술한 실시예와 반대로 컨텐츠의 전환이 수행되는 것도 가능하다. 예를 들어, 제 2 디스플레이 영역(20)의 하단부의 좌측에 대한 시선 위치가 디텍트된 경우, 디스플레이 디바이스(100)는 도 5와 상이하게, 제 2 디스플레이 영역(20)에 디스플레이되는 컨텐츠의 전환만을 수행할 수 있다. 또한, 예를 들어, 제 2 디스플레이 영역(20)의 하단부의 우측에 대한 시선 위치가 디텍트된 경우, 디스플레이 디바이스(100)는 도 6과 상이하게, 제 1 디스플레이 영역(10) 및 제 2 디스플레이 영역(20) 전부에 디스프레이되는 컨텐츠의 전환을 수행할 수 있다.
또한, 도 5 및 도 6은 제 2 디스플레이 영역(20)의 하단부에 대한 시선이 디텍트되는 경우에 대하여 실시예로 들었으나, 제 1 디스플레이 영역(10)의 하단부에 대한 시선이 디텍트되는 경우에도, 디스플레이 디바이스(100)는 도 5 및 도 6과 동일하게 컨텐츠의 전환을 수행할 수 있다.
도 7은 본 명세서의 디스플레이 디바이스의 제어 방법의 순서도를 나타낸다. 이하 설명하는 도 7의 각 단계는 도 1에 도시된 디스플레이 디바이스(100)의 프로세서(130)에 의해 제어될 수 있다.
먼저, 디스플레이 디바이스는 제 1 디스플레이 영역에서 제 1 리딩 인터페이스를 디스플레이할 수 있다(S710). 도 3에서 도시된 바와 같이, 제 1 리딩 인터페이스는 컨텐츠의 제 1 부분을 디스플레이할 수 있다. 이때, 일 예로서, 디스플레이 디바이스는 제 2 디스플레이 영역에 제 1 리딩 인터페이스에서 디스플레이된 컨텐츠와 상이한 컨텐츠를 디스플레이할 수 있다. 또한, 이때, 다른 일 예로서, 디스플레이 디바이스는 제 2 디스플레이 영역을 디액티베이트할 수도 있다.
다음으로, 디스플레이 디바이스는 제 1 디스플레이 영역의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다(S720). 도 3에서 상술한 바와 같이, 여기에서, 제 1 지점은 제 1 디스플레이 영역 내의 임의의 지점에 해당할 수 있다. 예를 들어, 제 1 지점은 제 1 디스플레이 영역의 하단부에 위치할 수 있다. 또한, 제 1 지점은 유저의 설정에 의해 제 1 디스플레이 영역 중 특정 영역으로 설정될 수도 있다.
다음으로, 디스플레이 디바이스는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트되었는지 판단할 수 있다(S730). 도 3에서 상술한 바와 같이, 여기에서, 제 2 지점은 제 2 디스플레이 영역 내의 임의의 지점에 해당할 수 있다. 예를 들어, 제 2 지점은 제 2 디스플레이 영역의 상단부에 위치할 수 있다. 도 3에 도시된 바와 같이, 제 2 지점은 제 2 디스플레이 영역의 상단 경계부에 위치할 수도 있다.
S730 단계에서, 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트된 것으로 결정된 경우, 디스플레이 디바이스는 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고, 컨텐츠의 제 2 부분을 제 2 디스플레이 영역에 디스플레이할 수 있다(S740). 제 2 리딩 인터페이스는 제 1 리딩 인터페이스와 동일한 컨텐츠를 디스플레이할 수 있다. 또한, 디스플레이 디바이스는 제 1 리딩 인터페이스와 제 2 리딩 인터페이스를 이용하여 연속성이 있는 컨텐츠를 디스플레이할 수 있다.
또한, 도 3에서 상술한 바와 같이, 제 2 부분은 컨텐츠의 제 1 부분의 다음 부분에 해당할 수 있다. 일 예로서, 컨텐츠가 페이지 경계가 있는 문서인 경우, 제 2 부분은 제 1 부분의 다음 페이지에 해당할 수 있다. 다른 일 예로서, 컨텐츠가 페이지 경계가 없는 문서인 경우, 제 2 부분은 제 1 부분의 다음 텍스트에 해당할 수 있다.
도 8은 본 명세서의 디스플레이 디바이스의 제어 방법의 순서도를 나타낸다. 이하 설명하는 도 8의 각 단계는 도 1에 도시된 디스플레이 디바이스(100)의 프로세서(130)에 의해 제어될 수 있다. 또한, 도 8의 실시예에서, 상술한 도 7의 실시예와 동일하거나 상응하는 부분은 자세한 설명을 생략하도록 한다.
먼저, 디스플레이 디바이스는 제 1 디스플레이 영역에서 제 1 리딩 인터페이스를 디스플레이할 수 있다(S810). 다음으로, 디스플레이 디바이스는 제 1 디스플레이 영역의 제 1 지점에 대한 시선 위치를 디텍트할 수 있다(S820). 다음으로, 디스플레이 디바이스는 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트되었는지 결정할 수 있다(S830).
S830 단계에서, 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트되는 경우, 디스플레이 디바이스는 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고, 컨텐츠의 제 2 부분을 제 2 디스플레이 영역에 디스플레이할 수 있다(S840).
다음으로, 디스플레이 디바이스는 제 2 디스플레이 영역의 제 3 지점에 대한 시선 위치를 디텍트할 수 있다(S850). 도 5 및 도 6에서 상술한 바와 같이, 제 3 지점은 제 2 디스플레이 영역의 하단부의 일 지점에 해당할 수 있다.
다음으로, 디텍트된 제 3 지점에 대한 시선 위치에 기초하여, 디스플레이 디바이스는 제 2 디스플레이 영역에 컨텐츠의 제 3 부분을 디스플레이할 수 있다(S860). 도 5 및 도 6에서 상술한 바와 같이, 제 3 부분은 컨텐츠의 제 2 부분의 다음 부분에 해당할 수 있다. 일 예로서, 컨텐츠가 페이지 경계가 있는 문서인 경우, 제 3 부분은 제 2 부분의 다음 페이지에 해당할 수 있다. 다른 일 예로서, 컨텐츠가 페이지 경계가 없는 문서인 경우, 제 3 부분은 제 2 부분의 다음 텍스트에 해당할 수 있다.
제 3 지점이 디스플레이 영역의 하단부의 좌측에 해당하는 경우, 디스플레이 디바이스는 제 1 디스플레이 영역에 컨텐츠의 제 2 부분을 디스플레이할 수 있다(S870). 즉, 디텍트된 제 3 지점에 대한 시선 위치에 기초하여, 디스플레이 디바이스는 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 디스플레이된 컨텐츠를 모두 다음 부분으로 전환할 수 있다.
또한, 제 3 지점이 디스플레이 영역의 하단부의 우측에 해당하는 경우, 디스플레이 디바이스는 제 1 디스플레이 영역에 컨텐츠의 제 1 부분의 디스플레이를 유지할 수 있다(S880). 즉, 디텍트된 제 3 지점에 대한 시선 위치에 기초하여, 디스플레이 디바이스는 제 2 디스플레이 영역에 디스플레이된 컨텐츠에 대해서만 다음 부분으로 전환할 수 있다.
한편, S830 단계에서, 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트되지 않은 경우, 디스플레이 디바이스는 제 1 디스플레이 영역에 컨텐츠의 제 2 부분을 디스플레이할 수 있다(S890). 도 4에서 상술한 바와 같이, 기 설정된 시간 이내에 제 2 지점에 대한 시선 신호가 디텍트되지 않는 경우, 디스플레이 디바이스는 유저가 제 1 디스플레이 영역에서 컨텐츠의 전환을 원하는 것으로 인식할 수 있다.
나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 명세서에 따른 디스플레이 디바이스 및 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서의 디스플레이 디바이스 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
100: 디스플레이 디바이스
10: 제 1 디스플레이 영역
20: 제 2 디스플레이 영역
1: 제 1 부분
2: 제 2 부분

Claims (20)

  1. 디스플레이 디바이스로서,
    컨텐츠를 디스플레이하고 제 1 디스플레이 영역 및 제 2 디스플레이 영역을 포함하는 디스플레이 유닛;
    상기 디스플레이 디바이스의 전면의 이미지를 센싱하는 이미지 캡쳐링 유닛; 및
    상기 디스플레이 유닛 및 상기 이미지 캡쳐링 유닛을 제어하고, 상기 센싱된 이미지로부터 상기 디스플레이 디바이스의 전방에 위치한 유저의 시선 위치(gaze location)를 검출하는 프로세서를 포함하고,
    상기 프로세서는
    상기 제 1 디스플레이 영역에서 제 1 리딩(reading) 인터페이스를 디스플레이하되, 상기 제 1 리딩 인터페이스는 상기 컨텐츠의 제 1 부분(part)을 디스플레이하고,
    상기 제 1 디스플레이 영역 내의 제 1 지점에 대한 시선 위치를 디텍트하고,
    상기 제 1 지점에 대한 시선 위치가 디텍트된 후 기 설정된 시간 이내에 상기 제 2 디스플레이 영역 내의 제 2 지점에 대한 시선 위치가 디텍트되는 경우, 상기 제 2 디스플레이 영역에서 제 2 리딩 인터페이스를 디스플레이하고 상기 컨텐츠의 제 2 부분을 상기 제 2 디스플레이 영역에 디스플레이하고,
    상기 제 2 지점에 대한 시선 위치가 디텍트된 후 상기 제 2 디스플레이 영역 내의 제 3 지점에 대한 시선 위치가 디텍트되는 경우, 상기 제 2 디스플레이 영역에 상기 컨텐츠의 제 3 부분을 디스플레이하고,
    상기 제 2 지점에 대한 시선 위치가 디텍트된 후 상기 제 2 디스플레이 영역 내의 상기 제 3 지점의 좌측에 대한 시선 위치가 디텍트되는 경우, 상기 제 1 디스플레이 영역에 상기 컨텐츠의 상기 제 2 부분을 디스플레이하고,
    상기 제 2 지점에 대한 시선 위치가 디텍트된 후 상기 제 2 디스플레이 영역 내의 상기 제 3 지점의 우측에 대한 시선 위치가 디텍트되는 경우, 상기 제 1 디스플레이 영역에 상기 컨텐츠의 상기 제 1 부분의 디스플레이를 유지하되
    상기 제 3 부분은 상기 제 2 부분의 연속된 다음 부분이고,
    상기 제 3 지점은 상기 제 2 디스플레이 영역의 하단부에 위치하는,
    디스플레이 디바이스.
  2. 제 1 항에 있어서,
    상기 제 2 부분은 상기 디스플레이 유닛에 디스플레이된 상기 제 1 부분의 연속된 다음(following) 부분인, 디스플레이 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는
    상기 제 1 리딩 인터페이스 및 상기 제 2 리딩 인터페이스를 이용하여 연속성이 있는 컨텐츠를 디스플레이하는, 디스플레이 디바이스.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 1 항에 있어서,
    상기 제 1 리딩 인터페이스 및 상기 제 2 리딩 인터페이스는 동일한 컨텐츠를 디스플레이하는, 디스플레이 디바이스.
  10. 제 1 항에 있어서,
    상기 프로세서는
    상기 제 1 디스플레이 영역에서 상기 제 1 리딩 인터페이스를 디스플레이하는 때에, 상기 제 2 디스플레이 영역에 상기 제 1 리딩 인터페이스에서 디스플레이된 컨텐츠와 상이한 컨텐츠를 디스플레이하는 것을 더 포함하는, 디스플레이 디바이스.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020130062910A 2013-03-21 2013-05-31 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법 KR102081930B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/949,787 US8743021B1 (en) 2013-03-21 2013-07-24 Display device detecting gaze location and method for controlling thereof
EP13879216.3A EP2976692A4 (en) 2013-03-21 2013-07-25 DISPLAY DEVICE FOR DETECTING LOOKING POSITIONS AND METHOD FOR CONTROLLING THEREOF
CN201380074935.8A CN105190478B (zh) 2013-03-21 2013-07-25 检测注视位置的显示设备及其控制方法
PCT/KR2013/006665 WO2014148696A1 (en) 2013-03-21 2013-07-25 Display device detecting gaze location and method for controlling thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361803792P 2013-03-21 2013-03-21
US61/803,792 2013-03-21

Publications (2)

Publication Number Publication Date
KR20140115906A KR20140115906A (ko) 2014-10-01
KR102081930B1 true KR102081930B1 (ko) 2020-02-26

Family

ID=51990123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130062910A KR102081930B1 (ko) 2013-03-21 2013-05-31 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법

Country Status (5)

Country Link
US (1) US8743021B1 (ko)
EP (1) EP2976692A4 (ko)
KR (1) KR102081930B1 (ko)
CN (1) CN105190478B (ko)
WO (1) WO2014148696A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10831982B2 (en) 2009-10-14 2020-11-10 Iplcontent, Llc Hands-free presenting device
US9330069B2 (en) 2009-10-14 2016-05-03 Chi Fai Ho Layout of E-book content in screens of varying sizes
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9400549B2 (en) * 2013-03-08 2016-07-26 Chi Fai Ho Method and system for a new-era electronic book
US9720559B2 (en) 2013-10-14 2017-08-01 Microsoft Technology Licensing, Llc Command authentication
US9201578B2 (en) 2014-01-23 2015-12-01 Microsoft Technology Licensing, Llc Gaze swipe selection
JP6415061B2 (ja) * 2014-02-19 2018-10-31 キヤノン株式会社 表示制御装置、制御方法及びプログラム
KR101663993B1 (ko) 2014-12-18 2016-10-12 숭실대학교산학협력단 홈 네트워크 시스템 및 그 제어방법, 이를 수행하기 위한 기록매체
US20160259405A1 (en) * 2015-03-03 2016-09-08 Microsoft Technology Licensing, Llc Eye Gaze for Automatic Paging
CN106294489B (zh) * 2015-06-08 2022-09-30 北京三星通信技术研究有限公司 内容推荐方法、装置及***
CN106469036B (zh) * 2015-08-14 2021-02-05 腾讯科技(深圳)有限公司 信息显示方法及客户端
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
CN107133005B (zh) * 2017-04-28 2019-05-17 维沃移动通信有限公司 一种柔性屏的显示方法及移动终端
CN109426342B (zh) * 2017-08-29 2022-04-01 深圳市掌网科技股份有限公司 基于增强现实的文档阅读方法和装置
JP6528820B2 (ja) * 2017-09-19 2019-06-12 カシオ計算機株式会社 コンピュータ、情報機器、これらを動作させるプログラム、情報処理システム、及び情報処理システムの制御方法
CN109194793B (zh) * 2018-10-29 2020-11-03 维沃移动通信有限公司 一种屏幕调节方法及移动终端
CN109871125A (zh) * 2019-01-31 2019-06-11 维沃移动通信有限公司 一种显示控制方法及终端设备
KR20220047293A (ko) * 2019-09-11 2022-04-15 엘지전자 주식회사 홈스크린을 설정하는 이동 단말기 및 그 제어 방법
CN111638835B (zh) * 2020-04-28 2022-03-01 维沃移动通信有限公司 笔记的生成方法及电子设备
CN112473138B (zh) * 2020-12-10 2023-11-17 网易(杭州)网络有限公司 游戏的显示控制方法及装置、可读存储介质、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298826A1 (en) * 2010-06-03 2011-12-08 Sony Ericsson Mobile Communications Japan, Inc. Terminal device, display method, and application computer program product
US20120256967A1 (en) * 2011-04-08 2012-10-11 Baldwin Leo B Gaze-based content display

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US6931587B1 (en) 1998-01-29 2005-08-16 Philip R. Krause Teleprompter device
US20030038754A1 (en) 2001-08-22 2003-02-27 Mikael Goldstein Method and apparatus for gaze responsive text presentation in RSVP display
US6956591B2 (en) * 2003-04-17 2005-10-18 Nokia Corporation Smooth scrolling with highlighted navigation and marking of page changes
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
JP2006349845A (ja) * 2005-06-14 2006-12-28 Aruze Corp 電子書籍表示装置
CN101943982B (zh) 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
JP5561769B2 (ja) * 2010-04-08 2014-07-30 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
KR20120053803A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법
CN102081503B (zh) * 2011-01-25 2013-06-26 汉王科技股份有限公司 基于视线追踪自动翻页的电子阅读器及其方法
US20120293528A1 (en) * 2011-05-18 2012-11-22 Larsen Eric J Method and apparatus for rendering a paper representation on an electronic display
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
JP5785015B2 (ja) 2011-07-25 2015-09-24 京セラ株式会社 電子機器、電子文書制御プログラムおよび電子文書制御方法
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
CN102981620A (zh) * 2012-11-27 2013-03-20 中兴通讯股份有限公司 一种终端操作方法及终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298826A1 (en) * 2010-06-03 2011-12-08 Sony Ericsson Mobile Communications Japan, Inc. Terminal device, display method, and application computer program product
US20120256967A1 (en) * 2011-04-08 2012-10-11 Baldwin Leo B Gaze-based content display

Also Published As

Publication number Publication date
CN105190478B (zh) 2018-07-27
CN105190478A (zh) 2015-12-23
WO2014148696A1 (en) 2014-09-25
EP2976692A4 (en) 2016-12-07
KR20140115906A (ko) 2014-10-01
EP2976692A1 (en) 2016-01-27
US8743021B1 (en) 2014-06-03

Similar Documents

Publication Publication Date Title
KR102081930B1 (ko) 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
US10509511B2 (en) Mobile terminal performing a different operation based on a type of a tap applied to a display and control method thereof
US10416789B2 (en) Automatic selection of a wireless connectivity protocol for an input device
US9973685B2 (en) Mobile terminal and method of controlling the same
EP3035656B1 (en) Method and apparatus for controlling an electronic device
US10409472B2 (en) Mobile terminal and method for controlling the same
KR102227087B1 (ko) 글래스 타입 단말기 및 그것의 제어방법
KR102180961B1 (ko) 입력 처리 방법 및 그 전자 장치
KR102169952B1 (ko) 웨어러블 디바이스 및 그 제어 방법
KR102251541B1 (ko) 이동단말기 및 그것의 제어방법
US20170372678A1 (en) Floating window processing method and apparatus
KR102135358B1 (ko) 이동 단말기 및 이의 제어방법
KR102313755B1 (ko) 이동 단말기 및 그 제어 방법
KR20210068097A (ko) 시스템 탐색 바 표시 제어 방법, 그래픽 사용자 인터페이스 및 전자 디바이스
KR20130081117A (ko) 이동 단말기 및 그 제어방법
KR102223728B1 (ko) 이동단말기 및 그 제어방법
US11025770B2 (en) Mobile terminal and electronic device having the same
KR20160079444A (ko) 디지털 디바이스 및 그 제어 방법
KR20210086103A (ko) 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법
KR101750872B1 (ko) 이동 단말기 및 그 제어방법
KR102135373B1 (ko) 이동 단말기 및 그것의 제어방법
KR102160105B1 (ko) 사용자 인터페이스를 제공하는 방법 및 장치
KR101977085B1 (ko) 이동 단말기
KR20160007230A (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant