KR102316024B1 - 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 - Google Patents

디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 Download PDF

Info

Publication number
KR102316024B1
KR102316024B1 KR1020170027101A KR20170027101A KR102316024B1 KR 102316024 B1 KR102316024 B1 KR 102316024B1 KR 1020170027101 A KR1020170027101 A KR 1020170027101A KR 20170027101 A KR20170027101 A KR 20170027101A KR 102316024 B1 KR102316024 B1 KR 102316024B1
Authority
KR
South Korea
Prior art keywords
user interface
display
user
touch input
bezel
Prior art date
Application number
KR1020170027101A
Other languages
English (en)
Other versions
KR20180101655A (ko
Inventor
조은님
전유현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170027101A priority Critical patent/KR102316024B1/ko
Priority to US15/906,255 priority patent/US11231785B2/en
Priority to EP18159565.3A priority patent/EP3370134B1/en
Priority to CN201810171167.2A priority patent/CN108563389B/zh
Publication of KR20180101655A publication Critical patent/KR20180101655A/ko
Application granted granted Critical
Publication of KR102316024B1 publication Critical patent/KR102316024B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 디스플레이 장치는, 상기 디스플레이 장치의 외관을 형성하는 하우징, 상기 하우징을 통해 외부로 노출된 디스플레이, 상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤, 상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서 및 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하고, 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키도록 설정된 프로세서를 포함할 수 있다.

Description

디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법{DISPLAY APPARATUS AND USER INTERFACE DISPLAYING METHOD THEREOF}
본 발명은 사용자 인터페이스를 표시하고 사용자 인터페이스의 위치를 변경하는 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히 최근에는 TV, 모니터, 전자 액자, 전자 칠판, 스마트폰 등과 같이 디스플레이를 포함하는 전자 장치의 보급이 확대되고 있으며, 디스플레이 기술이 발전함에 따라 전자 장치에 포함된 디스플레이의 크기는 시간이 지남에 따라 점점 커지고 있다.
한편, 전자 장치의 다기능화에 따라 전자 장치를 통해 방송 시청, 이메일, 음악/동영상 재생, SNS(social network service), 메시징 서비스, 게임 등 다양한 종류의 서비스를 제공하고 있다. 상술한 다양한 기능을 지원하기 위해 전자 장치와 사용자간의 인터렉션 기술도 발달하고 있으며 최근에는 디스플레이에 표시된 컨텐츠에 대한 사용자의 직관적인 입력을 수신할 수 있는 터치 스크린의 보급이 확대되고 있다.
대화면 디스플레이를 포함하는 전자 장치는 많은 정보를 표시할 수 있다는 장점이 있으나 터치 스크린을 이용하여 사용자와 인터렉션하는 경우에는 사용자가 고정된 위치에서 디스플레이에 표시된 모든 사용자 인터페이스와 인터렉션하기에는 어려움이 있다.
본 발명의 다양한 실시 예에 따르면, 디스플레이에 표시된 사용자 인터페이스를 사용자의 위치에 대응되도록 이동시키고 사용자 입력에 따라 사용자 인터페이스의 형태를 변경할 수 있는 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법을 제공하고자 한다.
본 발명의 다양한 실시 예에 따른 디스플레이 장치는, 상기 디스플레이 장치의 외관을 형성하는 하우징, 상기 하우징을 통해 외부로 노출된 디스플레이, 상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤, 상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서 및 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하고, 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키도록 설정된 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법은, 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤 내부에 배치된 터치 센서를 통해 사용자 입력을 수신하는 동작, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하는 동작 및 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 컴퓨터 판독 가능 기록매체는 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤 내부에 배치된 터치 센서를 통해 사용자 입력을 수신하는 동작, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하는 동작 및 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키는 동작을 포함하는 프로그램이 기록될 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자는 고정된 위치에서 대화면 디스플레이에 표시된 사용자 인터페이스의 위치를 이동시키고 사용자 인터페이스의 형태를 변경함으로써 디스플레이에 표시된 모든 사용자 인터페이스와 인터렉션할 수 있으며 이에 따라 사용자 편의성이 증대될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 다양한 실시 예에 따른 디스플레이 장치의 외관을 나타내는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법을 나타내는 흐름도이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.
도 1을 참조하면, 디스플레이 장치(100)는 디스플레이(110), 메모리(120), 센서 모듈(130) 및 프로세서(140)를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는, 예를 들어, 대화면 TV, 전자 칠판 등 지정된 크기(예: 50 인치)를 초과하는 대화면 디스플레이를 포함하는 장치 또는 복수개의 디스플레이를 연결하여 대화면 디스플레이를 구현하는 멀티비전(multivision) 또는 비디오 월(video wall)을 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(110)는 사용자 인터페이스를 표시할 수 있다. 사용자 인터페이스는, 예를 들어, 사용자와 인터렉션하기 위한 적어도 하나의 오브젝트를 포함할 수 있다. 예를 들어, 적어도 하나의 오브젝트는 텍스트, 아이콘 또는 이미지를 포함하는 메뉴일 수 있다.
일 실시 예에 따르면, 메모리(120)는 사용자 인터페이스를 저장할 수 있다. 일 실시 예에 따르면, 메모리(120)는 사용자 인터페이스의 위치 정보를 저장할 수 있다. 예를 들어, 메모리(120)는 디스플레이(110) 상에 사용자 인터페이스가 최초로 표시될 위치에 대한 정보를 저장할 수 있다. 일 실시 예에 따르면, 메모리(120)는 사용자의 위치 정보를 저장할 수 있다.
일 실시 예에 따르면, 센서 모듈(130)은 사용자 또는 사용자 입력을 감지할 수 있다. 예를 들어, 센서 모듈(130)은 복수의 센서를 이용하여 사용자의 위치, 디스플레이 장치(100)와 사용자의 거리 또는 사용자의 키를 감지하거나 사용자의 터치 입력 또는 사용자의 모션(또는, 제스처)을 감지할 수 있다.
일 실시 예에 따르면, 센서 모듈(130)은 열 센서(131), 터치 센서(133), 압력 센서(135), 모션 센서(137) 및 근접 센서(139)를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 센서에 의해 감지된 정보를 처리하기 위한 별도의 프로세서(예: 센서 허브)를 포함할 수 있다.
일 실시 예에 따르면, 열 센서(131)는 사용자의 위치를 감지할 수 있다. 열 센서(131)는 적외선 카메라를 이용하여 적외선 열화상을 촬영하고 촬영된 적외선 열화상에 기초하여 사용자의 위치를 감지할 수 있다. 예를 들어, 열 센서(131)는 적외선 열화상에 포함된 사용자의 신체를 확인하고 적외선 열화상 내에 포함된 사용자의 신체의 위치(또는, 좌표) 및 신체의 크기에 기초하여 사용자의 위치를 확인할 수 있다. 예를 들어, 열 센서(131)는 적외선 열화상의 우측에 사용자의 신체가 위치하는 경우 (사용자가 디스플레이를 바라볼 때를 기준으로) 사용자가 좌측에 위치한다고 판단하고, 적외선 열화상의 좌측에 사용자의 신체가 위치하는 경우 (사용자가 디스플레이를 바라볼 때를 기준으로) 사용자가 우측에 위치한다고 판단할 수 있다. 다른 예를 들어, 열 센서(131)는 적외선 열화상에 포함된 사용자의 신체의 크기가 클수록 디스플레이와의 거리에 가깝다고 판단하고, 사용자의 신체의 크기가 작을수록 디스플레이와의 거리가 멀다고 판단할 수 있다.
일 실시 예에 따르면, 터치 센서(133)는 사용자의 터치 입력 또는 호버링(또는, 근접 터치) 입력을 수신할 수 있다. 터치 센서(133)는, 예를 들어, 저항막 방식, 정전용량 방식, 적외선 방식 및 초음파 방식의 터치 센서를 포함할 수 있다. 일 실시 예에 따르면, 터치 센서(133)는 정전용량 방식의 터치 센서는 사용자의 호버링 입력시 터치 센서(133)와 사용자의 신체(예: 손가락)와 터치 센서(133)의 거리를 감지할 수도 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 터치 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 패널 상부에 배치되어 디스플레이(110) 상에 입력되는 터치 입력을 수신하는 제1 터치 센서 및 디스플레이(110)의 가장자리에 배치된 베젤 내부에 배치되어 베젤에 입력되는 터치 입력을 수신하는 제2 터치 센서를 포함할 수 있다. 이하에서 도 2를 참조하여 터치 센서(133)(예: 제2 터치 센서)가 포함된 베젤의 구조에 대해 설명한다.
도 2는 본 발명의 다양한 실시 예에 따른 디스플레이 장치의 외관을 나타내는 도면이다.
도 2를 참조하면, 디스플레이 장치(100)는 디스플레이(또는, 디스플레이 장치)(110) 및 하우징(150)을 포함할 수 있다. 상기 디스플레이 장치(100)의 내부(또는, 하우징(150)의 내부)에는 프로세서, 메모리 등 다양한 회로 또는 모듈 등이 배치될 수 있다.
일 실시 예에 따르면, 하우징(150)은 디스플레이 장치(100)의 외관의 적어도 일부분을 형성할 수 있다. 예를 들어, 하우징(150)은 제1 방향(11)을 향하는 전면(front surface)(21), 상기 전면(21)에 대향하는 후면(rear surface)(22), 및 상기 전면(21)과 상기 후면(22) 사이의 적어도 일부 공간을 둘러싼 측면(side surface)을 포함할 수 있다. 상기 측면은 제3 방향(또는, 좌측 방향(left-side direction))(13)을 향하는 좌측면(23), 제4 방향(또는, 우측 방향(right-side direction))(14)을 향하는 우측면(24), 제5 방향(또는, 상측 방향(upper-side direction))(15)을 향하는 상측면(25) 및 제6 방향(또는, 하측 방향(bottom-side direction))(16)을 향하는 하측면(26)을 포함할 수 있다. 일 실시 예에 따르면, 하우징(150)은, 디스플레이 장치(100) 내부의 다양한 구성요소들을 외부의 충격이나 먼지로부터 보호하기 위하여 플라스틱 사출물, 도전성 소재(예: 금속), 또는 이들의 조합으로 이루어질 수 있다.
일 실시 예에 따르면, 디스플레이(110)는 디스플레이 장치(100)(또는, 하우징(150))의 전면(21)에 배치될 수 있다. 예를 들어, 디스플레이(110)는 전면(21)과 후면(22) 사이의 내부에 배치되고, 상기 전면(21)을 통해 외부에 노출될 수 있다.
일 실시 예에 따르면, 하우징(150)은 베젤(151)을 포함할 수 있다. 일 실시 예에 따르면, 베젤(151)은 하우징(150)의 일부를 구성하고, 디스플레이(110)의 가장자리에 형성될 수 있다. 베젤(151)은, 예를 들어, 하우징(150)의 전면(21), 좌측면(23), 우측면(23), 상측면(25) 및 하측면(26)에 대응될 수 있다.
일 실시 예에 따르면, 압력 센서(135)는 사용자의 터치 입력의 세기(또는, 압력)를 감지할 수 있다. 압력 센서(135)는, 예를 들어, 정전 용량 방식의 압력 센서를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 압력 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 패널 하부에 배치되어 디스플레이(110) 상에 입력되는 터치 입력의 세기를 감지하는 제1 압력 센서 및 디스플레이(110)의 가장자리에 배치된 베젤 내부에 배치되어 베젤에 입력되는 터치 입력의 세기를 감지하는 제2 압력 센서를 포함할 수 있다.
일 실시 예에 따르면, 모션 센서(또는, 제스처 센서)(137)는 사용자의 모션(또는, 제스처)를 인식할 수 있다. 예를 들어, 모션 센서(137)는 카메라를 이용하여 사용자를 촬영하고 촬영된 영상에 포함된 사용자의 모션을 인식할 수 있다.
일 실시 예에 따르면, 근접 센서(139)는 사용자 또는 사용자 신체의 일부의 거리를 감지할 수 있다. 근접 센서(139)는, 예를 들어, 초음파 방식 또는 정전용량 방식의 근접 센서를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 근접 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 장치(100)의 복수의 지점에 배치된 복수의 근접 센서를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 디스플레이 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(140)는 디스플레이(110), 메모리(120) 및 센서 모듈(130) 각각을 제어하여 본 발명의 다양한 실시 에에 따라 디스플레이에 사용자 인터페이스를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 적어도 하나(예: 복수)의 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 CPU(central processing unit), GPU(graphic processing unit)) 및 메모리(예: 캐시 메모리)를 포함하는 SoC(system on chip)으로 구현될 수 있다.
일 실시 예에 따르면, 프로세서(140)는 센서 모듈(130)을 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 열 센서(131)를 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 터치 센서(133)를 통해 수신된 사용자의 터치 입력의 위치에 기초하여 사용자의 위치를 판단할 수 있다. 예를 들어, 프로세서(140)는 (사용자가 디스플레이를 바라볼 때를 기준으로) 우측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 우측에 위치한다고 판단하고, 좌측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 좌측에 위치한다고 판단할 수 있다. 다른 예를 들어, 프로세서(140)는 하측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 디스플레이 장치(100)의 정면에 위치한다고 판단할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자의 위치 정보를 메모리(120)에 저장할 수 있다. 프로세서(140)는 사용자의 위치가 변경되면 메모리(120)에 저장된 사용자의 위치 정보를 업데이트할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
일 실시 예에 따르면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(30)를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 사용자의 위치에 대응되는 위치에 사용자 인터페이스(30)를 표시할 수 있다. 예를 들어, 프로세서(140)는 사용자의 위치가 제1 위치(U31)로 판단되면 사용자의 제1 위치(U31)에 대응되는 디스플레이(110)의 제1 위치(P31)에 사용자 인터페이스(30)를 표시할 수 있다. 프로세서(140)는 사용자가 제1 위치(U31)에서 제2 위치(U32)로 이동하면 디스플레이(110)에 표시된 사용자 인터페이스(30)를 제1 위치(P31)에서 상기 사용자의 제2 위치(U32)에 대응되는 제2 위치(P32)로 이동시킬 수 있다. 프로세서(140)는 사용자가 제2 위치(U32)에서 제3 위치(U33)로 이동하면 디스플레이(110)에 표시된 사용자 인터페이스(30)를 제2 위치(P32)에서 상기 사용자의 제3 위치(U33)에 대응되는 제3 위치(P33)로 이동시킬 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자 인터페이스(30)가 표시된 위치에 따라 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)의 배열 방향을 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(30)가 제1 위치(P31) 및 제2 위치(P32)에 표시된 경우 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)를 가로 방향으로 배열하고, 사용자 인터페이스(30)가 제3 위치(P33)에 표시된 경우 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)를 세로 방향으로 배열할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 터치 센서(133) 상에 터치 입력이 수신된 위치에 따라 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)의 배열 방향을 변경할 수 있다. 예를 들어, 프로세서(140)는 상측면 베젤 또는 하측면 베젤에 사용자의 터치 입력이 수신되면 인터페이스(30)에 포함된 복수의 오브젝트(31)를 가로 방향으로 배열하고, 우측면 베젤 또는 좌측면 베젤에 사용자의 터치 입력이 수신되면 인터페이스(30)에 포함된 복수의 오브젝트(31)를 세로 방향으로 배열할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 센서 모듈(130)을 통해 지정된 제1 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 지정된 시간 동안 사용자의 터치 입력이 수신되거나 또는 지정된 세기 이상의 사용자의 터치 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제1 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제1 방향으로 손을 움직이는 제스처)가 인식되면 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자 인터페이스가 이동된 상태에서 지정된 제2 사용자 입력이 수신되면 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력과 동일한 터치 입력이 다시 수신되면 디스플레이(110)에 표시된 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제2 제스처(예: 사용자 주먹을 펴는 제스처 또는 제1 방향과 반대인 제2 방향으로 손을 움직이는 제스처)가 인식되면 디스플레이(110)에 표시된 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다.
도 4는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 4의 <401> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(40)를 표시할 수 있다. 예를 들어, 프로세서(140)는 메모리(120)에 저장된 사용자 인터페이스의 위치 정보에 따라 디스플레이(110)의 제1 위치(P41)에 사용자 인터페이스(40)를 표시할 수 있다.
도 4의 <402> 이미지를 참조하면, 프로세서(140)는 베젤(151) 내부에 배치된 터치 센서(133) 상에 터치 입력이 수신된 위치에 기초하여 사용자 인터페이스(40)를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 베젤(151)의 제1 위치(U41)에 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스(40)를 제1 위치(P41)에서 상기 베젤(151)의 제1 위치(U41)에 대응되는 제2 위치(P42)로 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 베젤(151)의 제2 위치(U42)에 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스(40)를 제1 위치(P41)에서 상기 베젤(151)의 제2 위치(U42)에 대응되는 제3 위치(P43)로 이동시킬 수 있다.
도 5는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 5의 <501> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(50)를 표시할 수 있다. 사용자 인터페이스(50)는 복수의 오브젝트(51)를 포함할 수 있다. 도 5의 <502> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(50)를 이동시킬 수 있다. 일 실시 예에 따르면, 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)는 지정된 배열 간격을 가질 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)를 제1 간격(d1)으로 배열할 수 있다.
도 5의 <503> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)의 배열 간격을 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 임계 시간을 초과하거나 사용자 입력의 세기가 임계 세기를 초과하는 경우 복수의 오브젝트(51)의 배열 간격을 제1 간격(d1)에서 제2 간격(d2)으로 좁힐 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간이 길어질수록 복수의 오브젝트(51)의 배열 간격을 좁힐 수 있다. 또 다른 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력의 세기가 세질수록 복수의 오브젝트(51)의 배열 간격을 좁힐 수 있다.
도 6은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 6의 <601> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(60)를 표시할 수 있다. 사용자 인터페이스(60)는 복수의 오브젝트(61, 62, 63, 64)를 포함할 수 있다. 일 실시 예에 따르면, 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64)는 지정된 배열 순서를 가질 수 있다. 예를 들어, 프로세서(140)는 복수의 오브젝트(61, 62, 63, 64)를 제1 오브젝트(61), 제2 오브젝트(62), 제3 오브젝트(63) 및 제4 오브젝트(64) 순서로 배열할 수 있다.
도 6의 <602> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(60)를 이동시킬 수 있다. 프로세서(140)는 사용자 인터페이스(60)를 이동시킬 때 복수의 오브젝트(61, 62, 63, 64)의 배열 순서를 유지할 수 있다.
도 6의 <603> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64))의 배열 순서를 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면 복수의 오브젝트(61, 62, 63, 64)를 제4 오브젝트(64), 제1 오브젝트(61), 제2 오브젝트(62) 및 제3 오브젝트(63)순서로 배열할 수 있다.
도 6의 <604> 이미지를 참조하면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64))의 배열 순서를 연속적으로 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제2 임계 시간(예: 2초)을 초과하거나 사용자 입력의 세기가 제2 임계 세기를 초과하면 복수의 오브젝트(61, 62, 63, 64)를 제3 오브젝트(63), 제4 오브젝트(64), 제1 오브젝트(61) 및 제2 오브젝트(62) 순서로 배열할 수 있다. 일 실시 예에 다르면, 프로세서(140)는 지정된 제1 사용자 입력의 수신이 중단되면 복수의 오브젝트(61, 62, 63, 64)의 배열 상태를 사용자 입력의 수신이 중단된 시간의 배열 상태로 유지할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 7의 <701> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(70)를 표시할 수 있다. 사용자 인터페이스는 복수의 오브젝트(71, 72, 73, 74)를 포함할 수 있다.
도 7의 <702> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(70)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(70)와 관련된 오브젝트를 추가적으로 표시할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면 사용자 인터페이스(70)에 사용자 인터페이스(70)와 관련된 제5 오브젝트(75) 및 제6 오브젝트(76)를 추가적으로 표시할 수 있다. 상기 사용자 인터페이스와 관련된 오브젝트는, 예를 들어, 사용자의 설정 또는 오브젝트의 선택 빈도에 따라 디스플레이(110)에 표시되지 않고 숨겨진 오브젝트일 수 있다.
도 8은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 8의 <801> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(80)를 표시할 수 있다. 사용자 인터페이스는 복수의 오브젝트(81, 82, 83, 84)를 포함할 수 있다.
도 8의 <802> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(80)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(70)의 하위 사용자 인터페이스를 추가적으로 표시할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면, 제1 오브젝트(81)의 하위 사용자 인터페이스(85), 제2 오브젝트(82)의 하위 사용자 인터페이스(86), 제3 오브젝트(83)의 하위 사용자 인터페이스(87), 제4 오브젝트(84)의 하위 사용자 인터페이스(88)를 표시할 수 있다. 사용자 인터페이스(80)에 포함된 복수의 오브젝트(81, 82, 83, 84)는 선택 메뉴이고, 하위 사용자 인터페이스(85, 86, 87, 88)는 복수의 오브젝트(81, 82, 83, 84) 각각의 하위 선택 메뉴를 포함할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 9의 <901> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 제1 사용자 인터페이스(91)를 표시할 수 있다. 제1 사용자 인터페이스(91)는, 예를 들어, 디스플레이 장치(100)에서 제공하는 복수의 기능을 선택할 수 있는 선택 메뉴를 포함하는 사용자 인터페이스일 수 있다. 프로세서(140)는 제1 사용자 인터페이스(91)가 표시된 후 디스플레이(110)에 제2 사용자 인터페이스(92)를 표시할 수 있다. 제2 사용자 인터페이스(92)는, 예를 들어, 팝업창과 같이 디스플레이(110)에 일시적으로 표시될 수 있는 사용자 인터페이스일 수 있다.
도 9의 <902> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 제1 사용자 인터페이스(91) 및 제2 사용자 인터페이스(92) 중 적어도 하나를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 디스플레이(110)에 표시된 복수의 사용자 인터페이스(91, 92) 중 가장 최근에 표시된 사용자 인터페이스(예: 제2 사용자 인터페이스(92))를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 제2 사용자 인터페이스(92)를 제1 위치(P91)에서 제2 위치(P92)로 이동시킬 수 있다.
사용자가 디스플레이 장치(100)를 이용하는 중에 불필요한 팝업창이 표시되는 경우가 발생할 수 있다. 사용자는 팝업창을 종료시키기 위해 팝업창이 표시된 위치로 이동하거나 사용자 인터페이스를 사용자가 위치하는 방향으로 이동시킬 수 있다. 도 9를 참조하여 설명한 실시 예에 따르면, 사용자는 다른 사용자 인터페이스를 이동시키지 않고 팝업창을 사용자가 위치하는 방향으로 이동시켜 편리하게 종료시킬 수 있다.
도 10은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 10의 <1001> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)를 표시할 수 있다.
도 10의 <1002> 이미지를 참조하면, 프로세서(140)는 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)의 적어도 일부를 오버랩시킬 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 인터페이스(95)의 적어도 일부 영역과 제2 사용자 인터페이스(96)의 적어도 일부 영역을 오버랩시키고 제2 사용자 인터페이스(96) 위에 제1 사용자 인터페이스(95)를 표시할 수 있다.
도 10의 <1003> 이미지를 참조하면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)의 오버랩 순서를 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면, 제1 사용자 인터페이스(95)와 제2 사용자 인터페이스(96)의 오버랩 순서를 변경하여 제1 사용자 인터페이스(95) 위에 제2 사용자 인터페이스(96)를 표시할 수 있다.
디스플레이에 다수의 사용자 인터페이스가 표시된 상태에서 사용자 인터페이스를 사용자가 위치하는 방향으로 이동시키는 경우 사용자 인터페이스를 오버랩시켜야 하는 상황이 발생할 수 있다. 도 10을 참조하여 설명한 실시예에 따르면, 사용자는 복수의 사용자 인터페이스의 오버랩 순서를 변경하여 고정된 위치에서도 복수의 사용자 인터페이스를 효과적으로 제어할 수 있다.
도 3 내지 도 10을 참조하여 설명한 실시예들은 각각 독립적으로 수행될 수도 있으나 복수의 실시예들이 동시에 수행될 수도 있다. 예를 들어, 프로세서(140)는 사용자의 위치 또는 터치 입력의 수신 위치에 따라 사용자 인터페이스를 이동시킴과 동시에 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 간격, 배열 방향 및 배열 순서 중 적어도 하나를 변경할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법을 나타내는 흐름도이다.
도 11에 도시된 흐름도는 상술한 디스플레이 장치(100)에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 10을 참조하여 디스플레이 장치(100)에 관하여 기술된 내용은 도 11에 도시된 흐름도에도 적용될 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1110 동작에서, 디스플레이의 제1 위치에 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이 장치(100)는 메모리에 저장된 사용자 인터페이스의 위치 정보에 따라 제1 위치에 사용자 인터페이스를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1120 동작에서, 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 열 센서를 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 터치 센서를 통해 수신된 사용자의 터치 입력의 위치에 기초하여 사용자의 위치를 판단할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1130 동작에서, 지정된 제1 사용자 입력을 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 예를 들어, 디스플레이 장치(100)는 지정된 시간 동안 사용자의 터치 입력을 수신하거나 또는 지정된 세기 이상의 사용자의 터치 입력을 수신할 수 있다. 다른 예를 들어, 디스플레이 장치(100)는 지정된 제1 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제1 방향으로 손을 움직이는 제스처)를 인식할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력이 수신되면, 1140 동작에서, 사용자 인터페이스를 사용자의 위치에 대응되는 제2 위치로 이동시킬 수 있다.
일 실시 예에 따르면, 사용자 인터페이스는 복수의 오브젝트를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 사용자 인터페이스가 표시된 제2 위치에 따라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향을 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 터치 센서 상에 터치 입력이 수신된 위치에 따라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향을 변경할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 간격을 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 순서를 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 사용자 인터페이스와 관련된 오브젝트 또는 사용자 인터페이스의 하위 사용자 인터페이스를 추가적으로 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 디스플레이에 복수의 사용자 인터페이스가 표시되어 있으면, 복수의 사용자 인터페이스 중 가장 최근에 표시된 사용자 인터페이스를 제2 위치로 이동시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 디스플레이에 복수의 사용자 인터페이스가 표시되어 있으면, 복수의 사용자 인터페이스를 모두 제2 위치로 이동시킬 수 있다. 디스플레이 장치(100)는 제2 위치로 이동된 복수의 사용자 인터페이스의 적어도 일부를 오버랩시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 복수의 사용자 인터페이스의 오버랩 순서를 변경할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1150 동작에서, 지정된 제2 사용자 입력을 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 지정된 시간 동안 사용자의 터치 입력을 수신하거나 또는 지정된 세기 이상의 사용자의 터치 입력을 수신할 수 있다. 다른 예를 들어, 디스플레이 장치(100)는 지정된 제2 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제2 방향으로 손을 움직이는 제스처)를 인식할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제2 사용자 입력이 수신되면, 1160 동작에서, 사용자 인터페이스를 제1 위치로 이동시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제2 사용자 입력이 수신되면 사용자 인터페이스의 위치뿐만 아니라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향, 배열 간격 및 배열 순서를 원래대로 되돌릴 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 디스플레이 장치에 있어서,
    상기 디스플레이 장치의 외관을 형성하는 하우징;
    상기 하우징을 통해 외부로 노출된 디스플레이;
    상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤;
    상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 베젤의 제1 위치에 대응하는 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 여기서 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고,
    상기 사용자 인터페이스가 표시되는 동안에 상기 터치 센서 상에 제1 터치 입력이 수신된 것에 응답하여:
    상기 제1 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하고, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고,
    상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키고,
    상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하고,
    상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하고,
    상기 제1 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하도록 설정된, 디스플레이 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 터치 입력의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격을 변경하도록 설정된 디스플레이 장치.
  4. 제1항에 있어서,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 프로세서는,
    상기 제1 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 터치 입력의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 베젤 내부에 배치되고 사용자의 터치 입력의 세기를 감지하는 압력 센서;를 더 포함하고,
    상기 프로세서는,
    상기 압력 센서에 의해 감지된 상기 제1 터치 입력의 세기에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 변경하도록 설정된 디스플레이 장치.
  7. 제1항에 있어서,
    상기 베젤 내부에 배치되고 사용자의 터치 입력의 세기를 감지하는 압력 센서;를 더 포함하고,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 프로세서는,
    상기 제1 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 터치 입력의 세기에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치.
  8. 제1항에 있어서,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 프로세서는,
    상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 중 가장 최근에 표시된 사용자 인터페이스를 이동시키도록 설정된 디스플레이 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 사용자 인터페이스가 상기 디스플레이의 제2 위치에 표시된 상태에서 상기 터치 센서에 지정된 제2 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 디스플레이의 제1 위치로 이동시키도록 설정된 디스플레이 장치.
  10. 제1항에 있어서,
    사용자의 제스처를 감지하는 모션 인식 센서;를 더 포함하고,
    상기 프로세서는,
    상기 사용자의 제1 제스처가 감지되면 상기 사용자 인터페이스를 상기 디스플레이의 제2 위치로 이동시키고, 상기 사용자 인터페이스가 상기 디스플레이의 제2 위치에 표시된 상태에서 상기 사용자의 제2 제스처가 감지되면 상기 사용자 인터페이스를 상기 디스플레이의 제1 위치로 이동시키도록 설정된 디스플레이 장치.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 제1 제스처의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 결정하도록 설정된 디스플레이 장치.
  12. 제10항에 있어서,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 프로세서는,
    상기 제1 제스처가 감지되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 제스처의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치.
  13. 디스플레이 장치의 사용자 인터페이스 표시 방법에 있어서,
    디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이의 제1 위치는 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤의 제1 위치에 대응하고, 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고;
    상기 사용자 인터페이스가 표시되는 동안에 상기 베젤 내부에 배치된 터치 센서를 통해 터치 입력을 수신하는 동작;
    상기 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하는 동작, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고;
    상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키는 동작;
    상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하는 동작;
    상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하는 동작; 및
    상기 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하는 동작;을 포함하는 방법.
  14. 삭제
  15. 제13항에 있어서,
    상기 터치 입력의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격을 변경하는 동작;을 더 포함하는 방법.
  16. 제13항에 있어서,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키는 동작; 및
    상기 터치 입력의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하는 동작;을 더 포함하는 방법.
  17. 삭제
  18. 제13항에 있어서,
    상기 베젤 내부에 배치된 압력 센서를 통해 상기 터치 입력의 세기를 감지하는 동작; 및
    상기 터치 입력의 세기에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 변경하는 동작;을 더 포함하는 방법.
  19. 제13항에 있어서,
    상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
    상기 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키는 동작;
    상기 베젤 내부에 배치된 압력 센서를 통해 상기 터치 입력의 세기를 감지하는 동작; 및
    상기 터치 입력의 세기에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하는 동작;을 더 포함하는 방법.
  20. 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 단계, 상기 디스플레이의 제1 위치는 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤의 제1 위치에 대응하고, 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고;
    상기 사용자 인터페이스가 표시되는 동안에 상기 베젤 내부에 배치된 터치 센서를 통해 터치 입력을 수신하는 단계;
    상기 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하는 단계, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고; 및
    상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키는 단계;
    상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하는 단계;
    상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하는 단계; 및
    상기 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하는 단계;를 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
KR1020170027101A 2017-03-02 2017-03-02 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 KR102316024B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170027101A KR102316024B1 (ko) 2017-03-02 2017-03-02 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
US15/906,255 US11231785B2 (en) 2017-03-02 2018-02-27 Display device and user interface displaying method thereof
EP18159565.3A EP3370134B1 (en) 2017-03-02 2018-03-01 Display device and user interface displaying method thereof
CN201810171167.2A CN108563389B (zh) 2017-03-02 2018-03-01 显示设备及其用户界面显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170027101A KR102316024B1 (ko) 2017-03-02 2017-03-02 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법

Publications (2)

Publication Number Publication Date
KR20180101655A KR20180101655A (ko) 2018-09-13
KR102316024B1 true KR102316024B1 (ko) 2021-10-26

Family

ID=61557117

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170027101A KR102316024B1 (ko) 2017-03-02 2017-03-02 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법

Country Status (4)

Country Link
US (1) US11231785B2 (ko)
EP (1) EP3370134B1 (ko)
KR (1) KR102316024B1 (ko)
CN (1) CN108563389B (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
KR102403141B1 (ko) 2017-08-31 2022-05-30 삼성전자주식회사 프리뷰 ui를 제공할 수 있는 디스플레이 장치 및 이의 제어 방법
US10754480B2 (en) * 2018-04-26 2020-08-25 Hewlett-Packard Development Company, L.P. Frames for interactive posters
US11553247B2 (en) * 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
US20230305661A1 (en) * 2022-03-28 2023-09-28 Promethean Limited User interface modification systems and related methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140359539A1 (en) * 2013-05-31 2014-12-04 Lenovo (Singapore) Pte, Ltd. Organizing display data on a multiuser display
US20160085438A1 (en) * 2014-09-23 2016-03-24 Microsoft Corporation Multi-finger touchpad gestures

Family Cites Families (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE40891E1 (en) * 1991-11-26 2009-09-01 Sandio Technology Corp. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5825363A (en) * 1996-05-24 1998-10-20 Microsoft Corporation Method and apparatus for determining visible surfaces
JPH104531A (ja) * 1996-06-14 1998-01-06 Nikon Corp 情報処理装置
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
TW521205B (en) * 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US7814419B2 (en) * 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US20060007169A1 (en) * 2004-06-04 2006-01-12 Robbins Michael S Self-encoding control interface bezel system
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US20060064642A1 (en) * 2004-09-22 2006-03-23 Edurite Technologies Pvt. Ltd. Seamless presentation integrator
US7382353B2 (en) * 2004-11-18 2008-06-03 International Business Machines Corporation Changing a function of a device based on tilt of the device for longer than a time period
US7536654B2 (en) * 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
CN101609383B (zh) * 2006-03-03 2014-08-06 苹果公司 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备
US20090213086A1 (en) * 2006-04-19 2009-08-27 Ji Suk Chae Touch screen device and operating method thereof
US8882590B2 (en) * 2006-04-28 2014-11-11 Nintendo Co., Ltd. Touch-controlled game character motion providing dynamically-positioned virtual control pad
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
US9292996B2 (en) * 2006-12-19 2016-03-22 Igt Distributed side wagering methods and systems
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20080249682A1 (en) * 2007-04-06 2008-10-09 Visteon Global Technologies, Inc. Touch control bezel for display devices
TWI357012B (en) * 2007-05-15 2012-01-21 Htc Corp Method for operating user interface and recording
US8259117B2 (en) * 2007-06-18 2012-09-04 Brian Mark Shuster Avatar eye control in a multi-user animation environment
US7778118B2 (en) * 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
KR100973354B1 (ko) * 2008-01-11 2010-07-30 성균관대학교산학협력단 메뉴 유저 인터페이스 제공 장치 및 방법
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8645827B2 (en) * 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
EP2175344B1 (en) * 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
US8289316B1 (en) * 2009-04-01 2012-10-16 Perceptive Pixel Inc. Controlling distribution of error in 2D and 3D manipulation
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
US8656314B2 (en) * 2009-07-30 2014-02-18 Lenovo (Singapore) Pte. Ltd. Finger touch gesture for joining and unjoining discrete touch objects
KR101768540B1 (ko) * 2009-10-30 2017-08-18 삼성전자주식회사 모바일 기기 및 이에 적용되는 ui 제공방법
KR101304321B1 (ko) * 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US9250800B2 (en) * 2010-02-18 2016-02-02 Rohm Co., Ltd. Touch-panel input device
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US8990732B2 (en) * 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US20110316888A1 (en) * 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
KR101788049B1 (ko) * 2010-12-15 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5620287B2 (ja) * 2010-12-16 2014-11-05 株式会社オプティム ユーザインターフェースを変更する携帯端末、方法及びプログラム
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US20120233545A1 (en) * 2011-03-11 2012-09-13 Akihiko Ikeda Detection of a held touch on a touch-sensitive display
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN102109963B (zh) * 2011-03-25 2013-03-06 威盛电子股份有限公司 于屏幕上进行光标定位的方法
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130067398A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom
KR101339420B1 (ko) * 2011-10-05 2013-12-10 한국과학기술원 베젤 영역을 이용한 전자책 컨텐츠 제어방법 및 장치
TW201333787A (zh) * 2011-10-11 2013-08-16 Flatfrog Lab Ab 觸控系統中改良的多點觸控偵測
KR20130082352A (ko) * 2012-01-11 2013-07-19 삼성전자주식회사 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법
US9229625B2 (en) * 2012-02-06 2016-01-05 Mosaiqq, Inc System and method for providing a circular computer desktop environment
US9134807B2 (en) * 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US9363220B2 (en) * 2012-03-06 2016-06-07 Apple Inc. Context-sensitive help for image viewing and editing application
US9146655B2 (en) * 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9015582B2 (en) * 2012-05-01 2015-04-21 Kabushiki Kaisha Toshiba User interface for reordering thumbnails
WO2014003337A1 (ko) * 2012-06-28 2014-01-03 한양대학교 산학협력단 유아이 조절 방법 및 이를 사용하는 사용자 단말기
US9720586B2 (en) * 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
KR20140036576A (ko) * 2012-09-17 2014-03-26 삼성전자주식회사 카테고리 디스플레이를 위한 방법 및 그 방법을 처리하는 전자 장치
US9785291B2 (en) * 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
US9164625B2 (en) * 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US20140109012A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Thumbnail and document map based navigation in a document
US9582122B2 (en) * 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9158766B2 (en) * 2012-11-29 2015-10-13 Oracle International Corporation Multi-touch interface for visual analytics
CN103019594A (zh) * 2012-12-06 2013-04-03 鸿富锦精密工业(深圳)有限公司 电子装置及其页面缩放方法
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
GB2512887B (en) * 2013-04-10 2017-09-13 Samsung Electronics Co Ltd Displaying history information for a selected action
KR102137240B1 (ko) * 2013-04-16 2020-07-23 삼성전자주식회사 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치
KR20140138424A (ko) * 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
US9477331B2 (en) * 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
US10576372B2 (en) * 2013-10-11 2020-03-03 Supercell Oy Electronic device for facilitating user interactions with graphical user interface
US20150153932A1 (en) * 2013-12-04 2015-06-04 Samsung Electronics Co., Ltd. Mobile device and method of displaying icon thereof
US20150160849A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Bezel Gesture Techniques
CN103617002A (zh) 2013-12-16 2014-03-05 深圳市理邦精密仪器股份有限公司 一种触控界面的实现方法及装置
US9367208B2 (en) * 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc Move icon to reveal textual information
KR102206385B1 (ko) * 2014-04-11 2021-01-22 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9600114B2 (en) * 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
US10037185B2 (en) * 2014-08-18 2018-07-31 Nightlight Systems Llc Digital media message generation
JP2017527033A (ja) * 2014-09-02 2017-09-14 アップル インコーポレイテッド ユーザ入力を受信するためのユーザインタフェース
US20160062636A1 (en) * 2014-09-02 2016-03-03 Lg Electronics Inc. Mobile terminal and control method thereof
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
US10304163B2 (en) * 2014-09-08 2019-05-28 Apple Inc. Landscape springboard
US9836195B2 (en) * 2014-11-17 2017-12-05 Supercell Oy Electronic device for facilitating user interactions with graphical objects presented on a display
KR20160069909A (ko) * 2014-12-09 2016-06-17 에스케이텔레콤 주식회사 전자칠판장치 및 그 장치를 위한 기록매체
JP2016111652A (ja) * 2014-12-10 2016-06-20 オリンパス株式会社 撮像装置、撮像方法およびプログラム
CN105786356B (zh) 2014-12-23 2019-08-09 阿里巴巴集团控股有限公司 一种应用的操作方法及装置
US9542037B2 (en) * 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
CN106325726B (zh) * 2015-06-30 2019-12-13 中强光电股份有限公司 触控互动方法
US9898130B2 (en) * 2016-03-31 2018-02-20 Synaptics Incorporated Grip management
US20180039951A1 (en) * 2016-08-03 2018-02-08 Google Inc. Computer-assisted agendas for videoconferences
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
DK180859B1 (en) * 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140359539A1 (en) * 2013-05-31 2014-12-04 Lenovo (Singapore) Pte, Ltd. Organizing display data on a multiuser display
US20160085438A1 (en) * 2014-09-23 2016-03-24 Microsoft Corporation Multi-finger touchpad gestures

Also Published As

Publication number Publication date
US11231785B2 (en) 2022-01-25
EP3370134B1 (en) 2021-06-30
EP3370134A1 (en) 2018-09-05
US20180253221A1 (en) 2018-09-06
CN108563389A (zh) 2018-09-21
CN108563389B (zh) 2023-05-30
KR20180101655A (ko) 2018-09-13

Similar Documents

Publication Publication Date Title
KR102316024B1 (ko) 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
KR102194272B1 (ko) 제스처들을 이용한 터치 입력들의 향상
CN103562838B (zh) 边缘手势
EP2972727B1 (en) Non-occluded display for hover interactions
US7411575B2 (en) Gesture recognition method and touch system incorporating the same
US8413075B2 (en) Gesture movies
US20130222323A1 (en) Peekable User Interface On a Portable Electronic Device
KR102582541B1 (ko) 에지 스크린을 통한 터치 입력 방법 및 전자 장치
WO2014140827A2 (en) Systems and methods for proximity sensor and image sensor based gesture detection
KR20070036077A (ko) 그래픽 사용자 인터페이스의 다중층 디스플레이
CN103562831A (zh) 边缘手势
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
CN103324335A (zh) 一种控制触摸屏的方法及其电子装置
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
CN103513879A (zh) 触控设备及其显示控制方法及装置
WO2012111230A1 (ja) 情報処理端末およびその制御方法
US10042445B1 (en) Adaptive display of user interface elements based on proximity sensing
KR20230007515A (ko) 접이식 디바이스의 디스플레이 스크린 상에서 검출된 제스처들을 처리하기 위한 방법 및 시스템
CA2806801C (en) Peekable user interface on a portable electronic device
US20160328077A1 (en) Touch sensor
US20160098092A1 (en) Display apparatus and method for controlling the same
KR20150044081A (ko) 표시 장치의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant