KR102316024B1 - 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 - Google Patents
디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 Download PDFInfo
- Publication number
- KR102316024B1 KR102316024B1 KR1020170027101A KR20170027101A KR102316024B1 KR 102316024 B1 KR102316024 B1 KR 102316024B1 KR 1020170027101 A KR1020170027101 A KR 1020170027101A KR 20170027101 A KR20170027101 A KR 20170027101A KR 102316024 B1 KR102316024 B1 KR 102316024B1
- Authority
- KR
- South Korea
- Prior art keywords
- user interface
- display
- user
- touch input
- bezel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
Abstract
본 발명의 다양한 실시 예에 따른 디스플레이 장치는, 상기 디스플레이 장치의 외관을 형성하는 하우징, 상기 하우징을 통해 외부로 노출된 디스플레이, 상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤, 상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서 및 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하고, 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키도록 설정된 프로세서를 포함할 수 있다.
Description
본 발명은 사용자 인터페이스를 표시하고 사용자 인터페이스의 위치를 변경하는 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히 최근에는 TV, 모니터, 전자 액자, 전자 칠판, 스마트폰 등과 같이 디스플레이를 포함하는 전자 장치의 보급이 확대되고 있으며, 디스플레이 기술이 발전함에 따라 전자 장치에 포함된 디스플레이의 크기는 시간이 지남에 따라 점점 커지고 있다.
한편, 전자 장치의 다기능화에 따라 전자 장치를 통해 방송 시청, 이메일, 음악/동영상 재생, SNS(social network service), 메시징 서비스, 게임 등 다양한 종류의 서비스를 제공하고 있다. 상술한 다양한 기능을 지원하기 위해 전자 장치와 사용자간의 인터렉션 기술도 발달하고 있으며 최근에는 디스플레이에 표시된 컨텐츠에 대한 사용자의 직관적인 입력을 수신할 수 있는 터치 스크린의 보급이 확대되고 있다.
대화면 디스플레이를 포함하는 전자 장치는 많은 정보를 표시할 수 있다는 장점이 있으나 터치 스크린을 이용하여 사용자와 인터렉션하는 경우에는 사용자가 고정된 위치에서 디스플레이에 표시된 모든 사용자 인터페이스와 인터렉션하기에는 어려움이 있다.
본 발명의 다양한 실시 예에 따르면, 디스플레이에 표시된 사용자 인터페이스를 사용자의 위치에 대응되도록 이동시키고 사용자 입력에 따라 사용자 인터페이스의 형태를 변경할 수 있는 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법을 제공하고자 한다.
본 발명의 다양한 실시 예에 따른 디스플레이 장치는, 상기 디스플레이 장치의 외관을 형성하는 하우징, 상기 하우징을 통해 외부로 노출된 디스플레이, 상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤, 상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서 및 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하고, 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키도록 설정된 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법은, 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤 내부에 배치된 터치 센서를 통해 사용자 입력을 수신하는 동작, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하는 동작 및 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 컴퓨터 판독 가능 기록매체는 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤 내부에 배치된 터치 센서를 통해 사용자 입력을 수신하는 동작, 상기 터치 센서 상에 상기 터치 입력이 수신된 위치에 기초하여 사용자의 위치를 판단하는 동작 및 상기 터치 센서 상에 지정된 제1 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 사용자의 위치에 대응되는 제2 위치로 이동시키는 동작을 포함하는 프로그램이 기록될 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자는 고정된 위치에서 대화면 디스플레이에 표시된 사용자 인터페이스의 위치를 이동시키고 사용자 인터페이스의 형태를 변경함으로써 디스플레이에 표시된 모든 사용자 인터페이스와 인터렉션할 수 있으며 이에 따라 사용자 편의성이 증대될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 다양한 실시 예에 따른 디스플레이 장치의 외관을 나타내는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법을 나타내는 흐름도이다.
도 2는 본 발명의 다양한 실시 예에 따른 디스플레이 장치의 외관을 나타내는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법을 나타내는 흐름도이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.
도 1을 참조하면, 디스플레이 장치(100)는 디스플레이(110), 메모리(120), 센서 모듈(130) 및 프로세서(140)를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는, 예를 들어, 대화면 TV, 전자 칠판 등 지정된 크기(예: 50 인치)를 초과하는 대화면 디스플레이를 포함하는 장치 또는 복수개의 디스플레이를 연결하여 대화면 디스플레이를 구현하는 멀티비전(multivision) 또는 비디오 월(video wall)을 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(110)는 사용자 인터페이스를 표시할 수 있다. 사용자 인터페이스는, 예를 들어, 사용자와 인터렉션하기 위한 적어도 하나의 오브젝트를 포함할 수 있다. 예를 들어, 적어도 하나의 오브젝트는 텍스트, 아이콘 또는 이미지를 포함하는 메뉴일 수 있다.
일 실시 예에 따르면, 메모리(120)는 사용자 인터페이스를 저장할 수 있다. 일 실시 예에 따르면, 메모리(120)는 사용자 인터페이스의 위치 정보를 저장할 수 있다. 예를 들어, 메모리(120)는 디스플레이(110) 상에 사용자 인터페이스가 최초로 표시될 위치에 대한 정보를 저장할 수 있다. 일 실시 예에 따르면, 메모리(120)는 사용자의 위치 정보를 저장할 수 있다.
일 실시 예에 따르면, 센서 모듈(130)은 사용자 또는 사용자 입력을 감지할 수 있다. 예를 들어, 센서 모듈(130)은 복수의 센서를 이용하여 사용자의 위치, 디스플레이 장치(100)와 사용자의 거리 또는 사용자의 키를 감지하거나 사용자의 터치 입력 또는 사용자의 모션(또는, 제스처)을 감지할 수 있다.
일 실시 예에 따르면, 센서 모듈(130)은 열 센서(131), 터치 센서(133), 압력 센서(135), 모션 센서(137) 및 근접 센서(139)를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 센서에 의해 감지된 정보를 처리하기 위한 별도의 프로세서(예: 센서 허브)를 포함할 수 있다.
일 실시 예에 따르면, 열 센서(131)는 사용자의 위치를 감지할 수 있다. 열 센서(131)는 적외선 카메라를 이용하여 적외선 열화상을 촬영하고 촬영된 적외선 열화상에 기초하여 사용자의 위치를 감지할 수 있다. 예를 들어, 열 센서(131)는 적외선 열화상에 포함된 사용자의 신체를 확인하고 적외선 열화상 내에 포함된 사용자의 신체의 위치(또는, 좌표) 및 신체의 크기에 기초하여 사용자의 위치를 확인할 수 있다. 예를 들어, 열 센서(131)는 적외선 열화상의 우측에 사용자의 신체가 위치하는 경우 (사용자가 디스플레이를 바라볼 때를 기준으로) 사용자가 좌측에 위치한다고 판단하고, 적외선 열화상의 좌측에 사용자의 신체가 위치하는 경우 (사용자가 디스플레이를 바라볼 때를 기준으로) 사용자가 우측에 위치한다고 판단할 수 있다. 다른 예를 들어, 열 센서(131)는 적외선 열화상에 포함된 사용자의 신체의 크기가 클수록 디스플레이와의 거리에 가깝다고 판단하고, 사용자의 신체의 크기가 작을수록 디스플레이와의 거리가 멀다고 판단할 수 있다.
일 실시 예에 따르면, 터치 센서(133)는 사용자의 터치 입력 또는 호버링(또는, 근접 터치) 입력을 수신할 수 있다. 터치 센서(133)는, 예를 들어, 저항막 방식, 정전용량 방식, 적외선 방식 및 초음파 방식의 터치 센서를 포함할 수 있다. 일 실시 예에 따르면, 터치 센서(133)는 정전용량 방식의 터치 센서는 사용자의 호버링 입력시 터치 센서(133)와 사용자의 신체(예: 손가락)와 터치 센서(133)의 거리를 감지할 수도 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 터치 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 패널 상부에 배치되어 디스플레이(110) 상에 입력되는 터치 입력을 수신하는 제1 터치 센서 및 디스플레이(110)의 가장자리에 배치된 베젤 내부에 배치되어 베젤에 입력되는 터치 입력을 수신하는 제2 터치 센서를 포함할 수 있다. 이하에서 도 2를 참조하여 터치 센서(133)(예: 제2 터치 센서)가 포함된 베젤의 구조에 대해 설명한다.
도 2는 본 발명의 다양한 실시 예에 따른 디스플레이 장치의 외관을 나타내는 도면이다.
도 2를 참조하면, 디스플레이 장치(100)는 디스플레이(또는, 디스플레이 장치)(110) 및 하우징(150)을 포함할 수 있다. 상기 디스플레이 장치(100)의 내부(또는, 하우징(150)의 내부)에는 프로세서, 메모리 등 다양한 회로 또는 모듈 등이 배치될 수 있다.
일 실시 예에 따르면, 하우징(150)은 디스플레이 장치(100)의 외관의 적어도 일부분을 형성할 수 있다. 예를 들어, 하우징(150)은 제1 방향(11)을 향하는 전면(front surface)(21), 상기 전면(21)에 대향하는 후면(rear surface)(22), 및 상기 전면(21)과 상기 후면(22) 사이의 적어도 일부 공간을 둘러싼 측면(side surface)을 포함할 수 있다. 상기 측면은 제3 방향(또는, 좌측 방향(left-side direction))(13)을 향하는 좌측면(23), 제4 방향(또는, 우측 방향(right-side direction))(14)을 향하는 우측면(24), 제5 방향(또는, 상측 방향(upper-side direction))(15)을 향하는 상측면(25) 및 제6 방향(또는, 하측 방향(bottom-side direction))(16)을 향하는 하측면(26)을 포함할 수 있다. 일 실시 예에 따르면, 하우징(150)은, 디스플레이 장치(100) 내부의 다양한 구성요소들을 외부의 충격이나 먼지로부터 보호하기 위하여 플라스틱 사출물, 도전성 소재(예: 금속), 또는 이들의 조합으로 이루어질 수 있다.
일 실시 예에 따르면, 디스플레이(110)는 디스플레이 장치(100)(또는, 하우징(150))의 전면(21)에 배치될 수 있다. 예를 들어, 디스플레이(110)는 전면(21)과 후면(22) 사이의 내부에 배치되고, 상기 전면(21)을 통해 외부에 노출될 수 있다.
일 실시 예에 따르면, 하우징(150)은 베젤(151)을 포함할 수 있다. 일 실시 예에 따르면, 베젤(151)은 하우징(150)의 일부를 구성하고, 디스플레이(110)의 가장자리에 형성될 수 있다. 베젤(151)은, 예를 들어, 하우징(150)의 전면(21), 좌측면(23), 우측면(23), 상측면(25) 및 하측면(26)에 대응될 수 있다.
일 실시 예에 따르면, 압력 센서(135)는 사용자의 터치 입력의 세기(또는, 압력)를 감지할 수 있다. 압력 센서(135)는, 예를 들어, 정전 용량 방식의 압력 센서를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 압력 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 패널 하부에 배치되어 디스플레이(110) 상에 입력되는 터치 입력의 세기를 감지하는 제1 압력 센서 및 디스플레이(110)의 가장자리에 배치된 베젤 내부에 배치되어 베젤에 입력되는 터치 입력의 세기를 감지하는 제2 압력 센서를 포함할 수 있다.
일 실시 예에 따르면, 모션 센서(또는, 제스처 센서)(137)는 사용자의 모션(또는, 제스처)를 인식할 수 있다. 예를 들어, 모션 센서(137)는 카메라를 이용하여 사용자를 촬영하고 촬영된 영상에 포함된 사용자의 모션을 인식할 수 있다.
일 실시 예에 따르면, 근접 센서(139)는 사용자 또는 사용자 신체의 일부의 거리를 감지할 수 있다. 근접 센서(139)는, 예를 들어, 초음파 방식 또는 정전용량 방식의 근접 센서를 포함할 수 있다. 일 실시 예에 따르면, 센서 모듈(130)은 복수의 근접 센서를 포함할 수 있다. 예를 들어, 센서 모듈(130)은 디스플레이 장치(100)의 복수의 지점에 배치된 복수의 근접 센서를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 디스플레이 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(140)는 디스플레이(110), 메모리(120) 및 센서 모듈(130) 각각을 제어하여 본 발명의 다양한 실시 에에 따라 디스플레이에 사용자 인터페이스를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 적어도 하나(예: 복수)의 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 CPU(central processing unit), GPU(graphic processing unit)) 및 메모리(예: 캐시 메모리)를 포함하는 SoC(system on chip)으로 구현될 수 있다.
일 실시 예에 따르면, 프로세서(140)는 센서 모듈(130)을 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 열 센서(131)를 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 터치 센서(133)를 통해 수신된 사용자의 터치 입력의 위치에 기초하여 사용자의 위치를 판단할 수 있다. 예를 들어, 프로세서(140)는 (사용자가 디스플레이를 바라볼 때를 기준으로) 우측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 우측에 위치한다고 판단하고, 좌측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 좌측에 위치한다고 판단할 수 있다. 다른 예를 들어, 프로세서(140)는 하측면 베젤에 사용자의 터치 입력이 수신되면 사용자가 디스플레이 장치(100)의 정면에 위치한다고 판단할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자의 위치 정보를 메모리(120)에 저장할 수 있다. 프로세서(140)는 사용자의 위치가 변경되면 메모리(120)에 저장된 사용자의 위치 정보를 업데이트할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
일 실시 예에 따르면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(30)를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(140)는 사용자의 위치에 대응되는 위치에 사용자 인터페이스(30)를 표시할 수 있다. 예를 들어, 프로세서(140)는 사용자의 위치가 제1 위치(U31)로 판단되면 사용자의 제1 위치(U31)에 대응되는 디스플레이(110)의 제1 위치(P31)에 사용자 인터페이스(30)를 표시할 수 있다. 프로세서(140)는 사용자가 제1 위치(U31)에서 제2 위치(U32)로 이동하면 디스플레이(110)에 표시된 사용자 인터페이스(30)를 제1 위치(P31)에서 상기 사용자의 제2 위치(U32)에 대응되는 제2 위치(P32)로 이동시킬 수 있다. 프로세서(140)는 사용자가 제2 위치(U32)에서 제3 위치(U33)로 이동하면 디스플레이(110)에 표시된 사용자 인터페이스(30)를 제2 위치(P32)에서 상기 사용자의 제3 위치(U33)에 대응되는 제3 위치(P33)로 이동시킬 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자 인터페이스(30)가 표시된 위치에 따라 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)의 배열 방향을 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(30)가 제1 위치(P31) 및 제2 위치(P32)에 표시된 경우 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)를 가로 방향으로 배열하고, 사용자 인터페이스(30)가 제3 위치(P33)에 표시된 경우 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)를 세로 방향으로 배열할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 터치 센서(133) 상에 터치 입력이 수신된 위치에 따라 사용자 인터페이스(30)에 포함된 복수의 오브젝트(31)의 배열 방향을 변경할 수 있다. 예를 들어, 프로세서(140)는 상측면 베젤 또는 하측면 베젤에 사용자의 터치 입력이 수신되면 인터페이스(30)에 포함된 복수의 오브젝트(31)를 가로 방향으로 배열하고, 우측면 베젤 또는 좌측면 베젤에 사용자의 터치 입력이 수신되면 인터페이스(30)에 포함된 복수의 오브젝트(31)를 세로 방향으로 배열할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 센서 모듈(130)을 통해 지정된 제1 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 지정된 시간 동안 사용자의 터치 입력이 수신되거나 또는 지정된 세기 이상의 사용자의 터치 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제1 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제1 방향으로 손을 움직이는 제스처)가 인식되면 디스플레이(110)에 표시된 사용자 인터페이스를 이동시킬 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자 인터페이스가 이동된 상태에서 지정된 제2 사용자 입력이 수신되면 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력과 동일한 터치 입력이 다시 수신되면 디스플레이(110)에 표시된 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제2 제스처(예: 사용자 주먹을 펴는 제스처 또는 제1 방향과 반대인 제2 방향으로 손을 움직이는 제스처)가 인식되면 디스플레이(110)에 표시된 사용자 인터페이스를 원래의 위치로 이동시킬 수 있다.
도 4는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 4의 <401> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(40)를 표시할 수 있다. 예를 들어, 프로세서(140)는 메모리(120)에 저장된 사용자 인터페이스의 위치 정보에 따라 디스플레이(110)의 제1 위치(P41)에 사용자 인터페이스(40)를 표시할 수 있다.
도 4의 <402> 이미지를 참조하면, 프로세서(140)는 베젤(151) 내부에 배치된 터치 센서(133) 상에 터치 입력이 수신된 위치에 기초하여 사용자 인터페이스(40)를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 베젤(151)의 제1 위치(U41)에 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스(40)를 제1 위치(P41)에서 상기 베젤(151)의 제1 위치(U41)에 대응되는 제2 위치(P42)로 이동시킬 수 있다. 다른 예를 들어, 프로세서(140)는 베젤(151)의 제2 위치(U42)에 사용자 입력이 수신되면, 디스플레이(110)에 표시된 사용자 인터페이스(40)를 제1 위치(P41)에서 상기 베젤(151)의 제2 위치(U42)에 대응되는 제3 위치(P43)로 이동시킬 수 있다.
도 5는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 5의 <501> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(50)를 표시할 수 있다. 사용자 인터페이스(50)는 복수의 오브젝트(51)를 포함할 수 있다. 도 5의 <502> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(50)를 이동시킬 수 있다. 일 실시 예에 따르면, 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)는 지정된 배열 간격을 가질 수 있다. 예를 들어, 프로세서(140)는 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)를 제1 간격(d1)으로 배열할 수 있다.
도 5의 <503> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(50)에 포함된 복수의 오브젝트(51)의 배열 간격을 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 임계 시간을 초과하거나 사용자 입력의 세기가 임계 세기를 초과하는 경우 복수의 오브젝트(51)의 배열 간격을 제1 간격(d1)에서 제2 간격(d2)으로 좁힐 수 있다. 다른 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간이 길어질수록 복수의 오브젝트(51)의 배열 간격을 좁힐 수 있다. 또 다른 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력의 세기가 세질수록 복수의 오브젝트(51)의 배열 간격을 좁힐 수 있다.
도 6은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 6의 <601> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(60)를 표시할 수 있다. 사용자 인터페이스(60)는 복수의 오브젝트(61, 62, 63, 64)를 포함할 수 있다. 일 실시 예에 따르면, 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64)는 지정된 배열 순서를 가질 수 있다. 예를 들어, 프로세서(140)는 복수의 오브젝트(61, 62, 63, 64)를 제1 오브젝트(61), 제2 오브젝트(62), 제3 오브젝트(63) 및 제4 오브젝트(64) 순서로 배열할 수 있다.
도 6의 <602> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(60)를 이동시킬 수 있다. 프로세서(140)는 사용자 인터페이스(60)를 이동시킬 때 복수의 오브젝트(61, 62, 63, 64)의 배열 순서를 유지할 수 있다.
도 6의 <603> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64))의 배열 순서를 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면 복수의 오브젝트(61, 62, 63, 64)를 제4 오브젝트(64), 제1 오브젝트(61), 제2 오브젝트(62) 및 제3 오브젝트(63)순서로 배열할 수 있다.
도 6의 <604> 이미지를 참조하면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(60)에 포함된 복수의 오브젝트(61, 62, 63, 64))의 배열 순서를 연속적으로 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제2 임계 시간(예: 2초)을 초과하거나 사용자 입력의 세기가 제2 임계 세기를 초과하면 복수의 오브젝트(61, 62, 63, 64)를 제3 오브젝트(63), 제4 오브젝트(64), 제1 오브젝트(61) 및 제2 오브젝트(62) 순서로 배열할 수 있다. 일 실시 예에 다르면, 프로세서(140)는 지정된 제1 사용자 입력의 수신이 중단되면 복수의 오브젝트(61, 62, 63, 64)의 배열 상태를 사용자 입력의 수신이 중단된 시간의 배열 상태로 유지할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 7의 <701> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(70)를 표시할 수 있다. 사용자 인터페이스는 복수의 오브젝트(71, 72, 73, 74)를 포함할 수 있다.
도 7의 <702> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(70)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(70)와 관련된 오브젝트를 추가적으로 표시할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면 사용자 인터페이스(70)에 사용자 인터페이스(70)와 관련된 제5 오브젝트(75) 및 제6 오브젝트(76)를 추가적으로 표시할 수 있다. 상기 사용자 인터페이스와 관련된 오브젝트는, 예를 들어, 사용자의 설정 또는 오브젝트의 선택 빈도에 따라 디스플레이(110)에 표시되지 않고 숨겨진 오브젝트일 수 있다.
도 8은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 8의 <801> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 사용자 인터페이스(80)를 표시할 수 있다. 사용자 인터페이스는 복수의 오브젝트(81, 82, 83, 84)를 포함할 수 있다.
도 8의 <802> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 사용자 인터페이스(80)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스(70)의 하위 사용자 인터페이스를 추가적으로 표시할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면, 제1 오브젝트(81)의 하위 사용자 인터페이스(85), 제2 오브젝트(82)의 하위 사용자 인터페이스(86), 제3 오브젝트(83)의 하위 사용자 인터페이스(87), 제4 오브젝트(84)의 하위 사용자 인터페이스(88)를 표시할 수 있다. 사용자 인터페이스(80)에 포함된 복수의 오브젝트(81, 82, 83, 84)는 선택 메뉴이고, 하위 사용자 인터페이스(85, 86, 87, 88)는 복수의 오브젝트(81, 82, 83, 84) 각각의 하위 선택 메뉴를 포함할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 9의 <901> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 제1 사용자 인터페이스(91)를 표시할 수 있다. 제1 사용자 인터페이스(91)는, 예를 들어, 디스플레이 장치(100)에서 제공하는 복수의 기능을 선택할 수 있는 선택 메뉴를 포함하는 사용자 인터페이스일 수 있다. 프로세서(140)는 제1 사용자 인터페이스(91)가 표시된 후 디스플레이(110)에 제2 사용자 인터페이스(92)를 표시할 수 있다. 제2 사용자 인터페이스(92)는, 예를 들어, 팝업창과 같이 디스플레이(110)에 일시적으로 표시될 수 있는 사용자 인터페이스일 수 있다.
도 9의 <902> 이미지를 참조하면, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 제1 사용자 인터페이스(91) 및 제2 사용자 인터페이스(92) 중 적어도 하나를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 디스플레이(110)에 표시된 복수의 사용자 인터페이스(91, 92) 중 가장 최근에 표시된 사용자 인터페이스(예: 제2 사용자 인터페이스(92))를 이동시킬 수 있다. 예를 들어, 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 제2 사용자 인터페이스(92)를 제1 위치(P91)에서 제2 위치(P92)로 이동시킬 수 있다.
사용자가 디스플레이 장치(100)를 이용하는 중에 불필요한 팝업창이 표시되는 경우가 발생할 수 있다. 사용자는 팝업창을 종료시키기 위해 팝업창이 표시된 위치로 이동하거나 사용자 인터페이스를 사용자가 위치하는 방향으로 이동시킬 수 있다. 도 9를 참조하여 설명한 실시 예에 따르면, 사용자는 다른 사용자 인터페이스를 이동시키지 않고 팝업창을 사용자가 위치하는 방향으로 이동시켜 편리하게 종료시킬 수 있다.
도 10은 본 발명의 일 실시 예에 따른 사용자 인터페이스의 이동 예를 나타내는 도면이다.
도 10의 <1001> 이미지를 참조하면, 프로세서(140)는 디스플레이(110)에 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)를 표시할 수 있다.
도 10의 <1002> 이미지를 참조하면, 프로세서(140)는 프로세서(140)는 지정된 제1 사용자 입력이 수신되면 디스플레이(110)에 표시된 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)를 이동시킬 수 있다. 일 실시 예에 따르면, 프로세서(140)는 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)의 적어도 일부를 오버랩시킬 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 인터페이스(95)의 적어도 일부 영역과 제2 사용자 인터페이스(96)의 적어도 일부 영역을 오버랩시키고 제2 사용자 인터페이스(96) 위에 제1 사용자 인터페이스(95)를 표시할 수 있다.
도 10의 <1003> 이미지를 참조하면, 프로세서(140)는 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 제1 사용자 인터페이스(95) 및 제2 사용자 인터페이스(96)의 오버랩 순서를 변경할 수 있다. 예를 들어, 프로세서(140)는 제1 사용자 입력의 지속 시간이 제1 임계 시간(예: 1초)을 초과하거나 사용자 입력의 세기가 제1 임계 세기를 초과하면, 제1 사용자 인터페이스(95)와 제2 사용자 인터페이스(96)의 오버랩 순서를 변경하여 제1 사용자 인터페이스(95) 위에 제2 사용자 인터페이스(96)를 표시할 수 있다.
디스플레이에 다수의 사용자 인터페이스가 표시된 상태에서 사용자 인터페이스를 사용자가 위치하는 방향으로 이동시키는 경우 사용자 인터페이스를 오버랩시켜야 하는 상황이 발생할 수 있다. 도 10을 참조하여 설명한 실시예에 따르면, 사용자는 복수의 사용자 인터페이스의 오버랩 순서를 변경하여 고정된 위치에서도 복수의 사용자 인터페이스를 효과적으로 제어할 수 있다.
도 3 내지 도 10을 참조하여 설명한 실시예들은 각각 독립적으로 수행될 수도 있으나 복수의 실시예들이 동시에 수행될 수도 있다. 예를 들어, 프로세서(140)는 사용자의 위치 또는 터치 입력의 수신 위치에 따라 사용자 인터페이스를 이동시킴과 동시에 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 간격, 배열 방향 및 배열 순서 중 적어도 하나를 변경할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 디스플레이 장치의 사용자 인터페이스 표시 방법을 나타내는 흐름도이다.
도 11에 도시된 흐름도는 상술한 디스플레이 장치(100)에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 10을 참조하여 디스플레이 장치(100)에 관하여 기술된 내용은 도 11에 도시된 흐름도에도 적용될 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1110 동작에서, 디스플레이의 제1 위치에 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이 장치(100)는 메모리에 저장된 사용자 인터페이스의 위치 정보에 따라 제1 위치에 사용자 인터페이스를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1120 동작에서, 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 열 센서를 이용하여 사용자의 위치를 판단할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 터치 센서를 통해 수신된 사용자의 터치 입력의 위치에 기초하여 사용자의 위치를 판단할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1130 동작에서, 지정된 제1 사용자 입력을 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 예를 들어, 디스플레이 장치(100)는 지정된 시간 동안 사용자의 터치 입력을 수신하거나 또는 지정된 세기 이상의 사용자의 터치 입력을 수신할 수 있다. 다른 예를 들어, 디스플레이 장치(100)는 지정된 제1 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제1 방향으로 손을 움직이는 제스처)를 인식할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력이 수신되면, 1140 동작에서, 사용자 인터페이스를 사용자의 위치에 대응되는 제2 위치로 이동시킬 수 있다.
일 실시 예에 따르면, 사용자 인터페이스는 복수의 오브젝트를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 사용자 인터페이스가 표시된 제2 위치에 따라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향을 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 터치 센서 상에 터치 입력이 수신된 위치에 따라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향을 변경할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력의 지속 시간(예: 터치 입력 또는 제스처 입력의 지속 시간) 또는 세기(예: 터치 입력의 세기)에 기초하여 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 간격을 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 순서를 변경할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 사용자 인터페이스와 관련된 오브젝트 또는 사용자 인터페이스의 하위 사용자 인터페이스를 추가적으로 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 디스플레이에 복수의 사용자 인터페이스가 표시되어 있으면, 복수의 사용자 인터페이스 중 가장 최근에 표시된 사용자 인터페이스를 제2 위치로 이동시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 디스플레이에 복수의 사용자 인터페이스가 표시되어 있으면, 복수의 사용자 인터페이스를 모두 제2 위치로 이동시킬 수 있다. 디스플레이 장치(100)는 제2 위치로 이동된 복수의 사용자 인터페이스의 적어도 일부를 오버랩시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제1 사용자 입력의 지속 시간 또는 세기에 기초하여 복수의 사용자 인터페이스의 오버랩 순서를 변경할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는, 1150 동작에서, 지정된 제2 사용자 입력을 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 지정된 시간 동안 사용자의 터치 입력을 수신하거나 또는 지정된 세기 이상의 사용자의 터치 입력을 수신할 수 있다. 다른 예를 들어, 디스플레이 장치(100)는 지정된 제2 제스처(예: 사용자 주먹을 쥐는 제스처 또는 제2 방향으로 손을 움직이는 제스처)를 인식할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(100)는 지정된 제2 사용자 입력이 수신되면, 1160 동작에서, 사용자 인터페이스를 제1 위치로 이동시킬 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 제2 사용자 입력이 수신되면 사용자 인터페이스의 위치뿐만 아니라 사용자 인터페이스에 포함된 복수의 오브젝트의 배열 방향, 배열 간격 및 배열 순서를 원래대로 되돌릴 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
Claims (20)
- 디스플레이 장치에 있어서,
상기 디스플레이 장치의 외관을 형성하는 하우징;
상기 하우징을 통해 외부로 노출된 디스플레이;
상기 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤;
상기 베젤 내부에 배치되고 사용자의 터치 입력을 수신하는 터치 센서; 및
프로세서를 포함하고, 상기 프로세서는,
상기 베젤의 제1 위치에 대응하는 상기 디스플레이의 제1 위치에 사용자 인터페이스를 표시하고, 여기서 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고,
상기 사용자 인터페이스가 표시되는 동안에 상기 터치 센서 상에 제1 터치 입력이 수신된 것에 응답하여:
상기 제1 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하고, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고,
상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키고,
상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하고,
상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하고,
상기 제1 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하도록 설정된, 디스플레이 장치. - 삭제
- 제1항에 있어서,
상기 프로세서는,
상기 제1 터치 입력의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격을 변경하도록 설정된 디스플레이 장치. - 제1항에 있어서,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 프로세서는,
상기 제1 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 터치 입력의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치. - 삭제
- 제1항에 있어서,
상기 베젤 내부에 배치되고 사용자의 터치 입력의 세기를 감지하는 압력 센서;를 더 포함하고,
상기 프로세서는,
상기 압력 센서에 의해 감지된 상기 제1 터치 입력의 세기에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 변경하도록 설정된 디스플레이 장치. - 제1항에 있어서,
상기 베젤 내부에 배치되고 사용자의 터치 입력의 세기를 감지하는 압력 센서;를 더 포함하고,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 프로세서는,
상기 제1 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 터치 입력의 세기에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치. - 제1항에 있어서,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 프로세서는,
상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 중 가장 최근에 표시된 사용자 인터페이스를 이동시키도록 설정된 디스플레이 장치. - 제1항에 있어서,
상기 프로세서는,
상기 사용자 인터페이스가 상기 디스플레이의 제2 위치에 표시된 상태에서 상기 터치 센서에 지정된 제2 터치 입력이 수신되면 상기 사용자 인터페이스를 상기 디스플레이의 제1 위치로 이동시키도록 설정된 디스플레이 장치. - 제1항에 있어서,
사용자의 제스처를 감지하는 모션 인식 센서;를 더 포함하고,
상기 프로세서는,
상기 사용자의 제1 제스처가 감지되면 상기 사용자 인터페이스를 상기 디스플레이의 제2 위치로 이동시키고, 상기 사용자 인터페이스가 상기 디스플레이의 제2 위치에 표시된 상태에서 상기 사용자의 제2 제스처가 감지되면 상기 사용자 인터페이스를 상기 디스플레이의 제1 위치로 이동시키도록 설정된 디스플레이 장치. - 제10항에 있어서,
상기 프로세서는,
상기 제1 제스처의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 결정하도록 설정된 디스플레이 장치. - 제10항에 있어서,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 프로세서는,
상기 제1 제스처가 감지되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키고, 상기 제1 제스처의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 사용자 인터페이스의 오버랩 순서를 변경하도록 설정된 디스플레이 장치. - 디스플레이 장치의 사용자 인터페이스 표시 방법에 있어서,
디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 동작, 상기 디스플레이의 제1 위치는 상기 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤의 제1 위치에 대응하고, 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고;
상기 사용자 인터페이스가 표시되는 동안에 상기 베젤 내부에 배치된 터치 센서를 통해 터치 입력을 수신하는 동작;
상기 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하는 동작, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고;
상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키는 동작;
상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하는 동작;
상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하는 동작; 및
상기 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하는 동작;을 포함하는 방법. - 삭제
- 제13항에 있어서,
상기 터치 입력의 지속 시간에 기초하여 상기 복수의 오브젝트 간의 배열 간격을 변경하는 동작;을 더 포함하는 방법. - 제13항에 있어서,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키는 동작; 및
상기 터치 입력의 지속 시간에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하는 동작;을 더 포함하는 방법. - 삭제
- 제13항에 있어서,
상기 베젤 내부에 배치된 압력 센서를 통해 상기 터치 입력의 세기를 감지하는 동작; 및
상기 터치 입력의 세기에 기초하여 상기 복수의 오브젝트 간의 배열 간격 및 배열 순서 중 적어도 하나를 변경하는 동작;을 더 포함하는 방법. - 제13항에 있어서,
상기 사용자 인터페이스는 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 포함하고,
상기 터치 입력이 수신되면 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 적어도 일부를 오버랩시키는 동작;
상기 베젤 내부에 배치된 압력 센서를 통해 상기 터치 입력의 세기를 감지하는 동작; 및
상기 터치 입력의 세기에 기초하여 상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스의 오버랩 순서를 변경하는 동작;을 더 포함하는 방법. - 디스플레이의 제1 위치에 사용자 인터페이스를 표시하는 단계, 상기 디스플레이의 제1 위치는 디스플레이 장치의 외관을 형성하는 하우징의 일부를 구성하고 상기 디스플레이의 가장 자리에 형성된 베젤의 제1 위치에 대응하고, 상기 사용자 인터페이스는 상기 디스플레이의 제1 위치에 기반하여 제1 방향으로 배치된 복수의 오브젝트를 포함하고;
상기 사용자 인터페이스가 표시되는 동안에 상기 베젤 내부에 배치된 터치 센서를 통해 터치 입력을 수신하는 단계;
상기 터치 입력이 수신된 상기 베젤의 제2 위치를 확인하는 단계, 상기 베젤의 제2 위치는 상기 베젤의 제1 위치와 상이하고; 및
상기 사용자 인터페이스를 상기 베젤의 제2 위치에 대응되는 상기 디스플레이의 제2 위치로 이동시키는 단계;
상기 디스플레이의 제2 위치에 기반하여, 상기 복수의 오브젝트가 배치된 방향을 상기 제1 방향에서 상기 제1 방향과 다른 제2 방향으로 변경하는 단계;
상기 복수의 오브젝트 각각의 하위 선택 메뉴를 표시하는 단계; 및
상기 터치 입력이 임계 시간을 초과한 것에 응답하여, 상기 사용자 인터페이스에 하나 이상의 추가 오브젝트를 표시하는 단계;를 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170027101A KR102316024B1 (ko) | 2017-03-02 | 2017-03-02 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
US15/906,255 US11231785B2 (en) | 2017-03-02 | 2018-02-27 | Display device and user interface displaying method thereof |
EP18159565.3A EP3370134B1 (en) | 2017-03-02 | 2018-03-01 | Display device and user interface displaying method thereof |
CN201810171167.2A CN108563389B (zh) | 2017-03-02 | 2018-03-01 | 显示设备及其用户界面显示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170027101A KR102316024B1 (ko) | 2017-03-02 | 2017-03-02 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180101655A KR20180101655A (ko) | 2018-09-13 |
KR102316024B1 true KR102316024B1 (ko) | 2021-10-26 |
Family
ID=61557117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170027101A KR102316024B1 (ko) | 2017-03-02 | 2017-03-02 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11231785B2 (ko) |
EP (1) | EP3370134B1 (ko) |
KR (1) | KR102316024B1 (ko) |
CN (1) | CN108563389B (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102316024B1 (ko) * | 2017-03-02 | 2021-10-26 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
KR102403141B1 (ko) | 2017-08-31 | 2022-05-30 | 삼성전자주식회사 | 프리뷰 ui를 제공할 수 있는 디스플레이 장치 및 이의 제어 방법 |
US10754480B2 (en) * | 2018-04-26 | 2020-08-25 | Hewlett-Packard Development Company, L.P. | Frames for interactive posters |
US11553247B2 (en) * | 2020-08-20 | 2023-01-10 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition |
US20230305661A1 (en) * | 2022-03-28 | 2023-09-28 | Promethean Limited | User interface modification systems and related methods |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140359539A1 (en) * | 2013-05-31 | 2014-12-04 | Lenovo (Singapore) Pte, Ltd. | Organizing display data on a multiuser display |
US20160085438A1 (en) * | 2014-09-23 | 2016-03-24 | Microsoft Corporation | Multi-finger touchpad gestures |
Family Cites Families (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE40891E1 (en) * | 1991-11-26 | 2009-09-01 | Sandio Technology Corp. | Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom |
US5825363A (en) * | 1996-05-24 | 1998-10-20 | Microsoft Corporation | Method and apparatus for determining visible surfaces |
JPH104531A (ja) * | 1996-06-14 | 1998-01-06 | Nikon Corp | 情報処理装置 |
US20020101457A1 (en) * | 2001-01-31 | 2002-08-01 | Microsoft Corporation | Bezel interface for small computing devices |
TW521205B (en) * | 2001-06-05 | 2003-02-21 | Compal Electronics Inc | Touch screen capable of controlling amplification with pressure |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US20090143141A1 (en) * | 2002-08-06 | 2009-06-04 | Igt | Intelligent Multiplayer Gaming System With Multi-Touch Display |
US7814419B2 (en) * | 2003-11-26 | 2010-10-12 | Nokia Corporation | Changing an orientation of a user interface via a course of motion |
US20060007169A1 (en) * | 2004-06-04 | 2006-01-12 | Robbins Michael S | Self-encoding control interface bezel system |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US20060064642A1 (en) * | 2004-09-22 | 2006-03-23 | Edurite Technologies Pvt. Ltd. | Seamless presentation integrator |
US7382353B2 (en) * | 2004-11-18 | 2008-06-03 | International Business Machines Corporation | Changing a function of a device based on tilt of the device for longer than a time period |
US7536654B2 (en) * | 2006-02-06 | 2009-05-19 | Microsoft Corporation | Photo browse and zoom |
CN101609383B (zh) * | 2006-03-03 | 2014-08-06 | 苹果公司 | 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备 |
US20090213086A1 (en) * | 2006-04-19 | 2009-08-27 | Ji Suk Chae | Touch screen device and operating method thereof |
US8882590B2 (en) * | 2006-04-28 | 2014-11-11 | Nintendo Co., Ltd. | Touch-controlled game character motion providing dynamically-positioned virtual control pad |
KR101144423B1 (ko) * | 2006-11-16 | 2012-05-10 | 엘지전자 주식회사 | 휴대 단말기 및 휴대 단말기의 화면 표시 방법 |
US9292996B2 (en) * | 2006-12-19 | 2016-03-22 | Igt | Distributed side wagering methods and systems |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US20080249682A1 (en) * | 2007-04-06 | 2008-10-09 | Visteon Global Technologies, Inc. | Touch control bezel for display devices |
TWI357012B (en) * | 2007-05-15 | 2012-01-21 | Htc Corp | Method for operating user interface and recording |
US8259117B2 (en) * | 2007-06-18 | 2012-09-04 | Brian Mark Shuster | Avatar eye control in a multi-user animation environment |
US7778118B2 (en) * | 2007-08-28 | 2010-08-17 | Garmin Ltd. | Watch device having touch-bezel user interface |
KR100973354B1 (ko) * | 2008-01-11 | 2010-07-30 | 성균관대학교산학협력단 | 메뉴 유저 인터페이스 제공 장치 및 방법 |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8645827B2 (en) * | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8284170B2 (en) * | 2008-09-30 | 2012-10-09 | Apple Inc. | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor |
US8683390B2 (en) * | 2008-10-01 | 2014-03-25 | Microsoft Corporation | Manipulation of objects on multi-touch user interface |
EP2175344B1 (en) * | 2008-10-06 | 2020-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
KR101586627B1 (ko) * | 2008-10-06 | 2016-01-19 | 삼성전자주식회사 | 멀티 터치를 이용한 리스트 관리 방법 및 장치 |
US20100107116A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch user interfaces |
US8289316B1 (en) * | 2009-04-01 | 2012-10-16 | Perceptive Pixel Inc. | Controlling distribution of error in 2D and 3D manipulation |
KR101055924B1 (ko) * | 2009-05-26 | 2011-08-09 | 주식회사 팬택 | 터치 기기에서의 유저 인터페이스 장치 및 방법 |
WO2011003171A1 (en) * | 2009-07-08 | 2011-01-13 | Smart Technologies Ulc | Three-dimensional widget manipulation on a multi-touch panel |
US8656314B2 (en) * | 2009-07-30 | 2014-02-18 | Lenovo (Singapore) Pte. Ltd. | Finger touch gesture for joining and unjoining discrete touch objects |
KR101768540B1 (ko) * | 2009-10-30 | 2017-08-18 | 삼성전자주식회사 | 모바일 기기 및 이에 적용되는 ui 제공방법 |
KR101304321B1 (ko) * | 2010-01-22 | 2013-09-11 | 전자부품연구원 | 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기 |
US9250800B2 (en) * | 2010-02-18 | 2016-02-02 | Rohm Co., Ltd. | Touch-panel input device |
US9367205B2 (en) * | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US9310994B2 (en) * | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US8990732B2 (en) * | 2010-05-14 | 2015-03-24 | Sap Se | Value interval selection on multi-touch devices |
US20110316888A1 (en) * | 2010-06-28 | 2011-12-29 | Invensense, Inc. | Mobile device user interface combining input from motion sensors and other controls |
KR101788049B1 (ko) * | 2010-12-15 | 2017-10-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP5620287B2 (ja) * | 2010-12-16 | 2014-11-05 | 株式会社オプティム | ユーザインターフェースを変更する携帯端末、方法及びプログラム |
US9244545B2 (en) * | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
US20120233545A1 (en) * | 2011-03-11 | 2012-09-13 | Akihiko Ikeda | Detection of a held touch on a touch-sensitive display |
KR101781908B1 (ko) * | 2011-03-24 | 2017-09-26 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
CN102109963B (zh) * | 2011-03-25 | 2013-03-06 | 威盛电子股份有限公司 | 于屏幕上进行光标定位的方法 |
US20120280900A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
US9658766B2 (en) * | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US8687023B2 (en) * | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US9417754B2 (en) * | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US20130067398A1 (en) * | 2011-09-09 | 2013-03-14 | Theresa B. Pittappilly | Semantic Zoom |
KR101339420B1 (ko) * | 2011-10-05 | 2013-12-10 | 한국과학기술원 | 베젤 영역을 이용한 전자책 컨텐츠 제어방법 및 장치 |
TW201333787A (zh) * | 2011-10-11 | 2013-08-16 | Flatfrog Lab Ab | 觸控系統中改良的多點觸控偵測 |
KR20130082352A (ko) * | 2012-01-11 | 2013-07-19 | 삼성전자주식회사 | 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법 |
US9229625B2 (en) * | 2012-02-06 | 2016-01-05 | Mosaiqq, Inc | System and method for providing a circular computer desktop environment |
US9134807B2 (en) * | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US9363220B2 (en) * | 2012-03-06 | 2016-06-07 | Apple Inc. | Context-sensitive help for image viewing and editing application |
US9146655B2 (en) * | 2012-04-06 | 2015-09-29 | Samsung Electronics Co., Ltd. | Method and device for executing object on display |
US9015582B2 (en) * | 2012-05-01 | 2015-04-21 | Kabushiki Kaisha Toshiba | User interface for reordering thumbnails |
WO2014003337A1 (ko) * | 2012-06-28 | 2014-01-03 | 한양대학교 산학협력단 | 유아이 조절 방법 및 이를 사용하는 사용자 단말기 |
US9720586B2 (en) * | 2012-08-21 | 2017-08-01 | Nokia Technologies Oy | Apparatus and method for providing for interaction with content within a digital bezel |
KR20140036576A (ko) * | 2012-09-17 | 2014-03-26 | 삼성전자주식회사 | 카테고리 디스플레이를 위한 방법 및 그 방법을 처리하는 전자 장치 |
US9785291B2 (en) * | 2012-10-11 | 2017-10-10 | Google Inc. | Bezel sensitive touch screen system |
US9164625B2 (en) * | 2012-10-14 | 2015-10-20 | Neonode Inc. | Proximity sensor for determining two-dimensional coordinates of a proximal object |
US20140109012A1 (en) * | 2012-10-16 | 2014-04-17 | Microsoft Corporation | Thumbnail and document map based navigation in a document |
US9582122B2 (en) * | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
US9158766B2 (en) * | 2012-11-29 | 2015-10-13 | Oracle International Corporation | Multi-touch interface for visual analytics |
CN103019594A (zh) * | 2012-12-06 | 2013-04-03 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及其页面缩放方法 |
KR102091028B1 (ko) * | 2013-03-14 | 2020-04-14 | 삼성전자 주식회사 | 사용자 기기의 오브젝트 운용 방법 및 장치 |
US9170676B2 (en) * | 2013-03-15 | 2015-10-27 | Qualcomm Incorporated | Enhancing touch inputs with gestures |
GB2512887B (en) * | 2013-04-10 | 2017-09-13 | Samsung Electronics Co Ltd | Displaying history information for a selected action |
KR102137240B1 (ko) * | 2013-04-16 | 2020-07-23 | 삼성전자주식회사 | 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치 |
KR20140138424A (ko) * | 2013-05-23 | 2014-12-04 | 삼성전자주식회사 | 제스쳐를 이용한 사용자 인터페이스 방법 및 장치 |
US9477331B2 (en) * | 2013-06-07 | 2016-10-25 | Apple Inc. | Touch detection at bezel edge |
US10576372B2 (en) * | 2013-10-11 | 2020-03-03 | Supercell Oy | Electronic device for facilitating user interactions with graphical user interface |
US20150153932A1 (en) * | 2013-12-04 | 2015-06-04 | Samsung Electronics Co., Ltd. | Mobile device and method of displaying icon thereof |
US20150160849A1 (en) * | 2013-12-06 | 2015-06-11 | Microsoft Corporation | Bezel Gesture Techniques |
CN103617002A (zh) | 2013-12-16 | 2014-03-05 | 深圳市理邦精密仪器股份有限公司 | 一种触控界面的实现方法及装置 |
US9367208B2 (en) * | 2013-12-31 | 2016-06-14 | Barnes & Noble College Booksellers, Llc | Move icon to reveal textual information |
KR102206385B1 (ko) * | 2014-04-11 | 2021-01-22 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9727161B2 (en) * | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
US9389703B1 (en) * | 2014-06-23 | 2016-07-12 | Amazon Technologies, Inc. | Virtual screen bezel |
US9600114B2 (en) * | 2014-07-31 | 2017-03-21 | International Business Machines Corporation | Variable pressure touch system |
US10037185B2 (en) * | 2014-08-18 | 2018-07-31 | Nightlight Systems Llc | Digital media message generation |
JP2017527033A (ja) * | 2014-09-02 | 2017-09-14 | アップル インコーポレイテッド | ユーザ入力を受信するためのユーザインタフェース |
US20160062636A1 (en) * | 2014-09-02 | 2016-03-03 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US10261674B2 (en) * | 2014-09-05 | 2019-04-16 | Microsoft Technology Licensing, Llc | Display-efficient text entry and editing |
US10304163B2 (en) * | 2014-09-08 | 2019-05-28 | Apple Inc. | Landscape springboard |
US9836195B2 (en) * | 2014-11-17 | 2017-12-05 | Supercell Oy | Electronic device for facilitating user interactions with graphical objects presented on a display |
KR20160069909A (ko) * | 2014-12-09 | 2016-06-17 | 에스케이텔레콤 주식회사 | 전자칠판장치 및 그 장치를 위한 기록매체 |
JP2016111652A (ja) * | 2014-12-10 | 2016-06-20 | オリンパス株式会社 | 撮像装置、撮像方法およびプログラム |
CN105786356B (zh) | 2014-12-23 | 2019-08-09 | 阿里巴巴集团控股有限公司 | 一种应用的操作方法及装置 |
US9542037B2 (en) * | 2015-03-08 | 2017-01-10 | Apple Inc. | Device, method, and user interface for processing intensity of touch contacts |
CN106325726B (zh) * | 2015-06-30 | 2019-12-13 | 中强光电股份有限公司 | 触控互动方法 |
US9898130B2 (en) * | 2016-03-31 | 2018-02-20 | Synaptics Incorporated | Grip management |
US20180039951A1 (en) * | 2016-08-03 | 2018-02-08 | Google Inc. | Computer-assisted agendas for videoconferences |
KR102316024B1 (ko) * | 2017-03-02 | 2021-10-26 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
DK180859B1 (en) * | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
-
2017
- 2017-03-02 KR KR1020170027101A patent/KR102316024B1/ko active IP Right Grant
-
2018
- 2018-02-27 US US15/906,255 patent/US11231785B2/en active Active
- 2018-03-01 EP EP18159565.3A patent/EP3370134B1/en active Active
- 2018-03-01 CN CN201810171167.2A patent/CN108563389B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140359539A1 (en) * | 2013-05-31 | 2014-12-04 | Lenovo (Singapore) Pte, Ltd. | Organizing display data on a multiuser display |
US20160085438A1 (en) * | 2014-09-23 | 2016-03-24 | Microsoft Corporation | Multi-finger touchpad gestures |
Also Published As
Publication number | Publication date |
---|---|
US11231785B2 (en) | 2022-01-25 |
EP3370134B1 (en) | 2021-06-30 |
EP3370134A1 (en) | 2018-09-05 |
US20180253221A1 (en) | 2018-09-06 |
CN108563389A (zh) | 2018-09-21 |
CN108563389B (zh) | 2023-05-30 |
KR20180101655A (ko) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102316024B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 | |
KR102194272B1 (ko) | 제스처들을 이용한 터치 입력들의 향상 | |
CN103562838B (zh) | 边缘手势 | |
EP2972727B1 (en) | Non-occluded display for hover interactions | |
US7411575B2 (en) | Gesture recognition method and touch system incorporating the same | |
US8413075B2 (en) | Gesture movies | |
US20130222323A1 (en) | Peekable User Interface On a Portable Electronic Device | |
KR102582541B1 (ko) | 에지 스크린을 통한 터치 입력 방법 및 전자 장치 | |
WO2014140827A2 (en) | Systems and methods for proximity sensor and image sensor based gesture detection | |
KR20070036077A (ko) | 그래픽 사용자 인터페이스의 다중층 디스플레이 | |
CN103562831A (zh) | 边缘手势 | |
US20130155108A1 (en) | Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture | |
CN103324335A (zh) | 一种控制触摸屏的方法及其电子装置 | |
US9639167B2 (en) | Control method of electronic apparatus having non-contact gesture sensitive region | |
CN103513879A (zh) | 触控设备及其显示控制方法及装置 | |
WO2012111230A1 (ja) | 情報処理端末およびその制御方法 | |
US10042445B1 (en) | Adaptive display of user interface elements based on proximity sensing | |
KR20230007515A (ko) | 접이식 디바이스의 디스플레이 스크린 상에서 검출된 제스처들을 처리하기 위한 방법 및 시스템 | |
CA2806801C (en) | Peekable user interface on a portable electronic device | |
US20160328077A1 (en) | Touch sensor | |
US20160098092A1 (en) | Display apparatus and method for controlling the same | |
KR20150044081A (ko) | 표시 장치의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |