KR20170088229A - 사용자단말기 및 그 제어방법 - Google Patents

사용자단말기 및 그 제어방법 Download PDF

Info

Publication number
KR20170088229A
KR20170088229A KR1020160008338A KR20160008338A KR20170088229A KR 20170088229 A KR20170088229 A KR 20170088229A KR 1020160008338 A KR1020160008338 A KR 1020160008338A KR 20160008338 A KR20160008338 A KR 20160008338A KR 20170088229 A KR20170088229 A KR 20170088229A
Authority
KR
South Korea
Prior art keywords
input
user
objects
user input
edge
Prior art date
Application number
KR1020160008338A
Other languages
English (en)
Inventor
이승훈
강도연
박성배
이주연
최정환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160008338A priority Critical patent/KR20170088229A/ko
Priority to PCT/KR2016/004323 priority patent/WO2017126744A1/ko
Priority to US16/069,597 priority patent/US10824314B2/en
Publication of KR20170088229A publication Critical patent/KR20170088229A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • H04M1/72519
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있는 사용자단말기 및 그 제어방법이 제공된다. 본 발명의 사용자단말기는, 영상을 처리할 수 있는 영상처리부와; 상기 처리된 영상을 표시할 수 있는 디스플레이부와; 상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

사용자단말기 및 그 제어방법{USER TERMINAL AND CONTROL METHOD OF THE SAME}
본 발명은 화면의 중앙영역에 시야를 방해할 수 있는 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있는 사용자단말기 및 그 제어방법이다.
사용자는 사용자단말기를 이용하여 각종 어플리케이션(프로그램 아이콘 등) 등을 이용하고 있으며 복수의 어플리케이션(프로그램 아이콘 등)을 실행하여 사용자단말기를 사용하고 있는 추세이다. 이렇게 복수의 어플리케이션(프로그램 아이콘 등)을 실행하면 화면의 제한된 영역으로 인하여 실행된 어플리케이션(프로그램 아이콘 등)의 오브젝트를 이동시키거나, 실행된 어플리케이션(프로그램 아이콘 등)의 실행을 중지하거나, 실행된 어플리케이션(프로그램 아이콘 등)의 오브젝트의 크기를 감소하는 등의 여러 번의 입력이 필요하다.
도 1은 본 발명과 관련된 사용자단말기(1)브젝트를 화면의 중앙영역에서 이동시키는 것을 나타내는 예시도이다. 사용자는 사용자단말기(1)의 화면 중앙영역에 위치하고 있는 오브젝트 A를 사용자단말기(1)의 화면 중앙영역에서 벗어나게 하려면, 먼저 사용자는 오브젝트를 터치하고(a) 이때 표시되는 크기조정에 관한 버튼(B) 중 하나를 선택하여야 한다. 사용자는 오브젝트 A를 최소화하기 위하여 최소화 버튼을 선택하여(b) 화면 중앙영역으로부터 벗어나도록 하였다(c). 오브젝트A는 최소화되었기 때문에 다시 오브젝트의 어플리케이션(프로그램)을 실행하려면 오브젝트를 선택하거나 다른 버튼을 이용하여 최소화된 오브젝트A를 찾아서 선택을 해야 한다.
하지만, 시간적으로 화면영역의 중앙영역에 위치하고 있는 한 오브젝트로 인하여 지금 필요한 어플리케이션(프로그램 아이콘 등)의 오브젝트에 대한 시야가 확보되지 않을 수 있다. 또한, 사용자는 보다 직관적이고 손쉽게 어플리케이션(프로그램 아이콘 등)의 오브젝트를 화면의 중앙영역에서 벗어나게 하여 표시하려는 어플리케이션의 오브젝트에 방해가 되지 않게 하는 것을 더욱 더 원하게 되었다.
본 발명의 목적은 오브젝트를 손쉽게 가장자리로 이동하고 크기를 감소시켜 오브젝트의 방해가 없는 화면영역의 중앙영역을 만들 수 있는 사용자단말기 및 그 제어방법을 제공함에 있다.
상기 본 발명의 해결과제를 달성하기 위한 사용자단말기는, 영상을 처리할 수 있는 영상처리부와; 상기 처리된 영상을 표시할 수 있는 디스플레이부와; 상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 사용자단말기에 의해 달성된다.
여기서, 상기 제어부는 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정할 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정할 수 있다.
여기서, 상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경할 수 있다.
여기서, 상기 제어부는 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정할 수 있다.
그리고, 상기 제어부는 복수의 상기 제2오브젝트를 중첩하여 표시할 수 있다.
여기서, 상기 제어부는 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알릴 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정할 수 있다.
여기서, 상기 제어부는 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경할 수 있다.
한편, 상기 본 발명의 해결과제를 달성하기 위한 사용자단말기의 제어방법은, 영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키는 단계와; 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경하는 단계와; 상기 변경된 제2오브젝트를 표시하는 단계를 포함하는 사용자단말기의 제어방법에 의해 달성된다.
여기서, 상기 이동시키는 단계는, 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 단계를 포함할 수 있다.
그리고, 상기 제2오브젝트의 위치를 결정하는 단계는, 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
여기서, 상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
그리고, 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 단계를 더 포함할 수 있다.
여기서, 상기 제1오브젝트로 변경하는 단계는, 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정하는 단계를 포함할 수 있다.
그리고, 복수의 상기 제2오브젝트를 중첩하여 표시하는 단계를 더 포함할 수 있다.
여기서, 상기 중첩하여 표시하는 단계는, 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알리는 단계를 포함할 수 있다.
그리고, 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정하는 단계를 더 포함할 수 있다.
여기서, 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경하는 단계를 더 포함할 수 있다.
본 발명에 의하면, 오브젝트를 손쉽게 가장자리로 이동하고 크기를 감소시켜 오브젝트의 방해가 없는 화면영역의 중앙영역을 만들 수 있는 효과가 있다.
또한, 가장자리로 이동되고 크기가 감소된 오브젝트를 손쉽게 화면의 중앙영역으로 복귀시킬 수 있는 효과가 있다.
도 1은 본 발명과 관련된 사용자단말기(1)브젝트를 화면의 중앙영역에서 이동시키는 것을 나타내는 예시도이며,
도 2는 본 발명의 일 실시 예에 따른 사용자단말기를 이용하여 오브젝트를 가장지리로 이동시키어 크기를 감소시키는 것을 나타내는 예시도이고,
도3 은 본 발명에 따른 사용자단말기의 구성을 나타내는 블록도이며,
도 4 는 본 발명의 일 실시 예에 따른 사용자단말기의 구성을 나타내는 블록도이고,
도 5는 본 발명에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이며,
도 6은 본 발명의 일 실시 예에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이고,
도 7a와 7b는 본 발명의 다른 실시 예에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이며,
도 8은 본 발명의 일 실시 예에 따른 사용자단말기에서 터치스윙의 사용자입력으로 오브젝트를 가장자리로 이동하면서 크기를 감소시키는 것을 나타내는 예시도이고,
도 9는 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 오브젝트를 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이며,
도 10은 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 오브젝트의 크기, 형태, 색상 및 투명도 등을 나타내는 예시도이고,
도 11은 본 발명의 일 실시 예에 따른 사용자단말기에서 오브젝트를 중첩하여 표시하는 것을 나타내는 예시도이고,
도 12는 본 발명의 일 실시 예에 따른 사용자단말기에서 중첩된 오브젝트 각각에 대하여 알리는 것을 나타내는 예시도이며,
도 13은 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 가장자리의 오브젝트를 사용자의 터치스윙에 의한 입력으로 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이고,
도 14는 본 발명의 일 실시 예에 따른 사용자단말기에서 복수의 오브젝트를 가장자리로 이동하여 감소시키고 복귀시키는 것을 나타내는 예시도이다.
이하에서는 첨부한 도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 2는 본 발명의 일 실시 예에 따른 사용자단말기(10)를 이용하여 치아를 촬상하고 치아에 관한 분석정보가 화면에 표시되는 것을 나타내는 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 사용자단말기(10)를 이용하여 오브젝트를 가장지리로 이동시키어 크기를 감소시키는 것을 나타내는 예시도이다.
(a) 사용자단말기(10) 화면의 중앙영역에 오브젝트 A가 표시되어 있을 수 있다.
(b) 사용자는 사용자단말기(10) 화면의 중앙영역에 표시되어 있는 오브젝트 A를 터치하여 우측으로 이동시킬 수 있다. 오브젝트A는 이동시킬 수 있는 터치영역이 존재할 수 있으며 오브젝트를 이동시키는 경우 이 터치영역을 터치하여 이동시켜야 할 수도 있다. 단 터치영역은 존재하지 않을 수 있으며 실행을 위한 터치와 달리 설정을 통하여 오브젝트 어느 영역이던지 터치하여 이동되도록 할 수도 있다.
(c) 사용자의 터치에 의해 이동되고 있는 오브젝트A의 적어도 일부가 화면영역을 벗어나도록 하거나 가장자리로부터 적어도 오브젝트의 크기와 기설정된 거리 등에 대한 설정에 의한 설정 이내에 이동되는 경우일 수 있다.
(d) 오브젝트A가 적어도 일부가 화면영역을 벗어나도록 하거나 가장자리로부터 적어도 오브젝트의 크기와 기설정된 거리 등에 대한 설정에 의한 설정 이내에 이동되면 오브젝트A는 오브젝트A보다 작은 크기의 오브젝트B로 변경시킨다. 또한, 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 오브젝트의 위치를 결정하고, 결정된 위치에 변경된 오브젝트B가 위치할 수 있다. 도 2의 (d)에서는 반원형태로 화면의 가장자리에 위치하고 있지만 그 형태는 한정되지 않는다. 또한, 오브젝트B는 오브젝트A가 변경된 것임을 알 수 있도록 오브젝트A의 특징적인 형태나 색상 그리고 로고 등에 대응하여 표시될 수 있다. 또한, 오브젝트B는 오브젝트A로 복귀되기 위한 해제를 위한 선택영역, 해제를 알리는 표시 중 적어도 하나를 표시할 수 있다.
도2에서는 사용자입력을 터치, 드래그-앤-드롭의 방식으로 기술하였지만 이에 한정되지 않으며 터치하여 던지는 터치스윙의 방식, 복수의 터치입력 등으로도 구현될 수 있음은 물론이다.
도3 은 본 발명에 따른 사용자단말기(10)의 구성을 나타내는 블록도이다. 본 발명에 따른 사용자단말기(10)는 영상처리부(110), 디스플레이부(120) 및 제어부(100)를 포함할 수 있다.
영상처리부(110)가 수행하는 영상처리 프로세스의 종류는 한정되지 않으며, 예를 들면 소정 신호를 각 특성 별 신호로 분배하는 디멀티플렉싱(de-multiplexing), 영상신호의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 영상신호를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환 등을 포함할 수 있으며, 인코딩된 소스영상의 영상 포맷에 대응하여 소스 영상을 디코딩하는 디코더(미도시) 및 디코딩된 소스영상을 프레임단위로 저장하는 프레임버퍼(미도시)를 포함할 수 있다.
영상처리부(110)는 이러한 여러 기능을 통합시킨 SOC(system-on-chip), 또는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적인 구성들이 인쇄회로기판 상에 장착됨으로써 영상처리보드(미도시)로 구현되어 디스플레이장치에 내장될 수 있다.
영상처리부(110)는 수신부(미도시)로부터 수신되는 영상신호를 포함하는 방송신호 및 영상공급원(미도시)으로부터 제공받은 영상신호를 포함하는 소스영상에 대해 기 설정된 다양한 영상처리 프로세스를 수행한다. 영상처리부(110)는 이러한 프로세스가 수행된 영상신호를 디스플레이부(120)에 출력함으로써, 디스플레이부(120)에 처리된 소스영상이 표시될 수 있다.
디스플레이부(120)는 영상처리부(110)로부터 출력되는 영상신호에 기초하여 영상을 표시할 수 있다. 디스플레이부(120)의 구현 방식은 한정되지 않는 바, 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.
디스플레이부(120)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(120)가 액정 방식인 경우, 디스플레이부 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시)을 포함할 수 있다.
디스플레이부(120)는 영상처리부(110)에 의해 처리된 영상신호에 기초하여 영상을 표시한다. 디스플레이부(120)가 영상을 표시하는 방식에는 제한이 없으나, LCD, PDP, OLED 등의 방식을 포함한다. 이 경우, 디스플레이부(120)는 LCD패널, PDP패널, OLED패널 등을 포함할 수 있다.
디스플레이부(120)는 영상 및 색보정 과정을 표시할 수 있다. 디스플레이부(120)는 영상이 표시되는 디스플레이패널과 입력되는 영상신호를 처리하여 디스플레이패널에 영상이 표시되게 하는 패널구동부를 포함할 수 있으며, 자세한 구현 방식에 있어 한정되지 않는다. 인터페이스를 통해 외부의 입력소스로부터 수신된 영상신호는 디코딩(decoding), 디인터레이싱(deinterlacing), 스케일링(scaling) 등의 영상 처리 과정을 거쳐 디스플레이부(120)에 표시될 수 있다.
제어부(100)는 사용자단말기(10) 내부의 전반적인 구성을 제어할 수 있다. 제어부(100)는 영상에 포함된 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동시키며, 제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 디스플레이부(110)에 표시되도록 영상처리부(110)를 제어할 수 있다.
도 4 는 본 발명의 일 실시 예에 따른 사용자단말기(10)의 구성을 나타내는 블록도이다. 본 발명의 일 실시 예에 따른 사용자단말기(10)는 도 3의 구성을 포함할 수 있으며, 추가로 통신부(130), 저장부(140), 사용자입력부(150), 음성수신부(160), 촬상부(170) 및 UI생성부(180)을 포함할 수 있다.
통신부(130)는 외부입력에 의한 신호를 수신하여 영상처리부(110) 또는 제어부(100)에 전달할 수 있다. 통신부(130)는 다양한 외부입력 케이블이 접속됨으로써 해당 외부입력으로부터의 신호를 유선으로 수신하며, 또는 무선으로 수신되는 신호를 미리 정해진 무선통신규격에 따라서 수신할 수 있다.
통신부(130)는 각 케이블이 개별적으로 접속되는 복수의 커넥터(미도시)를 포함할 수 있다. 통신부(130)는 접속된 외부입력으로부터의 신호, 예를 들면 HDMI, USB, 컴포넌트(component) 규격에 따른 방송신호, 영상신호, 데이터신호 등을 수신하거나, 또는 통신 네트워크를 통한 통신데이터를 수신할 수 있다.
통신부(130)는 외부입력으로부터의 신호/데이터를 수신하는 구성뿐 아니라, 사용자단말기(10)의 설계 방식에 따라서, 무선 통신을 위한 무선통신모듈(미도시)이나 방송신호의 튜닝을 위한 튜너(미도시)와 같은 다양한 부가적인 구성을 더 포함할 수 있다. 통신부(130)는 외부장치로부터 신호를 수신하는 것 이외에도, 사용자단말기(10)의 정보/데이터/신호를 외부장치에 전송할 수도 있다. 즉, 통신부(130)는 외부장치로 신호를 수신하는 구성으로만 한정할 수 없으며, 양방향 통신이 가능한 인터페이스(interface)로 구현될 수 있다. 통신부(130)는 복수의 제어장치로부터 UI를 선택하기 위한 제어신호를 수신할 수 있다. 통신부(130)는 블루투스(Bluetooth), IR(Infrared), UWB(Ultra Wideband), 지그비(Zigbee) 등 공지의 근거리 무선통신을 위한 통신모듈로 구성될 수 있으며, 유선통신을 위한 공지의 통신포트로 구성될 수도 있다. 통신부(130)는 UI를 선택하기 위한 제어신호 이외에, 디스플레이의 조작을 위한 명령, 데이터의 송수신 등 다양한 목적으로 활용될 수 있다.
저장부(140)는 사용자단말기(10)에 전원이 차단되더라도 데이터들이 남아있어야 하며, 사용자의 변동 사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(Writable ROM)로 마련되는 것이 바람직하다. 즉, 저장부(140)는 플래쉬 메모리(Flash Memory) 또는 EPROM 또는 EEPROM 중 어느 하나로 마련될 수 있다.
사용자입력부(150)는 사용자의 조작 및 입력에 따라서 기 설정된 다양한 제어 커맨드 또는 정보를 제어부(100)에 전달할 수 있다. 사용자입력부(150)는 사용자단말기(10) 외측에 설치된 메뉴 키(menu-key) 또는 입력 패널(panel)이나, 사용자단말기(10)와 분리 이격된 리모트 컨트롤러(remote controller) 등으로 구현될 수 있다. 또는, 사용자입력부(150)는 디스플레이부(120)와 일체형으로 구현될 수 있는 바, 디스플레이부(120)가 터치스크린(touch-screen)인 경우에 사용자는 디스플레이부(120)에 표시된 입력메뉴(미도시)를 터치함으로써 기 설정된 커맨드를 제어부(100)에 전달할 수 있다.
사용자입력부(150)는 사용자의 모션 및 음성을 수신할 수 있다. 사용자의 모션은 터치입력을 포함할 수 있다. 사용자입력부(150)는 사용자의 모션 및 음성을 직접 수신할 수도 있고, 혹은 사용자의 모션 및 음성에 관한 정보를 외부장치로부터 수신할 수도 있다.
음성수신부(160)는 마이크로 마련되어 사용자의 음성명령을 수신하여 제어부(100)로 전송할 수 있다.
촬상부(170)는 마이크로 마련되어 사용자의 제스쳐를 수신하여 제어부(100)로 전송할 수 있다.
UI생성부(180)는 실행되는 응용프로그램을 동작하기 위한 UI를 생성할 수 있다. 생성되는 UI는 아이콘, 텍스트 등의 형태로 제공되는 복수의 서브 UI를 포함하며, 사용자가 사용자단말기(10)를 통해 특정 서브UI를 선택하면 선택된 서브UI에 대응하여 응용프로그램이 동작될 수 있다. 즉, 각각의 서브UI는 사용자단말기(10)에서 실행 중인 응용프로그램을 동작할 수 있는 복수의 기능 또는 이벤트 단위로 생성될 수 있다.
UI생성부(180)는 디스플레이부(120)에 표시되는 UI를 생성하고 제어하는 소프트웨어 또는 하드웨어 적 기능을 의미하는 것으로, 후술할 제어부(100)에 의해 그 기능이 수행될 수 있을 것이다. 다시 말하면, UI생성부(180)가 별도의 칩셋으로 구성되거나, 별도의 마이크로프로세서에 의해 구현될 수도 있다.
제어부(100)는 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정할 수 있다.
제어부(100)는 제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정할 수 있다.
제2오브젝트는 제1오브젝트의 형태, 색상, 영역, 제1오브젝트로의 해제를 위한 영역, 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
제어부(100)는 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 제2오브젝트를 제1오브젝트로 변경할 수 있다.
제어부(100)는 제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 제1오브젝트의 위치를 결정할 수 있다.
제어부(100)는 복수의 제2오브젝트를 중첩하여 표시할 수 있다.
제어부(100)는 사용자 입력에 기초하여 중첩된 제2오브젝트 각각에 대하여 UI를 통하여 알릴 수 있다.
제어부(100)는 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정할 수 있다.
제어부(100)는 사용자 입력에 기초하여 복수의 제1오브젝트를 복수의 제2오브젝트로 변경할 수 있다.
도 5는 본 발명에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다.
영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동한다(S11).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S12).
변경된 제2오브젝트를 표시한다(S13).
도 6은 본 발명의 일 실시 예에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다.
제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정한다(S21).
제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동한다(S22).
사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정한다(S23).
제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정한다(S24).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S25).
변경된 제2오브젝트를 표시한다(S26).
제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 제2오브젝트를 제1오브젝트로 변경한다(S27).
제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 제1오브젝트의 위치를 결정한다(S28). 여기서 S27단계와 S28단계의 순서는 어느 것이던 관계없다.
변경된 제1오브젝트를 표시한다(S29).
도 도 7a와 7b는 본 발명의 다른 실시 예에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다
제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정한다(S31).
제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동한다(S32).
사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정한다(S33).
제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정한다(S34).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S35).
변경된 제2오브젝트를 표시한다(S36).
방향이 중첩되는 복수의 제2오브젝트를 중첩하여 표시한다(S37).
사용자 입력에 기초하여 중첩된 제2오브젝트 각각에 대하여 알리는 정보를 표시한다(S38).
복수의 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 복수의 제2오브젝트를 복수의 제1오브젝트로 변경한다(S39).
복수의 제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 복수의 제2오브젝트에 대응하는 복수의 제1오브젝트의 위치를 결정한다(S40). 여기서 S27단계와 S28단계의 순서는 어느 것이던 관계없다.
변경된 복수의 제1오브젝트를 표시한다(S41).
도 8은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 터치스윙의 사용자입력으로 오브젝트를 가장자리로 이동하면서 크기를 감소시키는 것을 나타내는 예시도이다.
(a) 사용자는 디스플레이부(120)에 표시된 제1오브젝트 의 T1지점을 터치하여 우측방향으로 던지듯이, 스윙하듯이 제1오브젝트를 T2지점까지 드래그하다가 T2지점에서 터치를 해제한다.
(b) 이러한 사용자의 입력에 의해 사용자의 터치가 해제된 이후에도 슬라이딩되어 제1오브젝트는 우측으로 이동하게 된다. 그러면 화면 중앙 있던 제1오브젝트의 영역 A1은 시야의 방해를 받지 않게 되며 제1오브젝트는 A2영역에 위치하게 된다. 제1오브젝트의 우측의 일부분은 화면영역에서 벗어나 보이지 않게 될 수 있다.
(c) 제어부(100)는 제1오브젝트가 화면의 우측면에 일정 거리 이내에 위치하는 지를 파악하거나, 제1오브젝트의 적어도 일부분이 화면영역을 벗어났거나, 제1오브젝트의 전체부분이 화면영역을 벗어났을 대를 기준으로 제2오브젝트 B로 변경하여 표시할 수 있다. 제2오브젝트 B는 반원형상으로 표시될 수 있으며, 표시되는 제2오브젝트 B의 상측 부분에는 전체영역을 표시하도록 하는 전체형상(□)을 나타내는 표시를 표시할 수 있으며, 하측 부분에는 최소화로 표시하도록 하는 최소화형상(?)을 나타내는 표시를 표시할 수 있다. 제2오브젝트 B의 형상을 일 예일 뿐이며 여러 가지 다른 형상으로 마련될 수 있으며 설정될 수 있다.
도 9는 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 오브젝트를 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이다.
(a) 디스플레이부(120) 화면의 가장자리에 위치해 있는 제2오브젝트 B를 사용자는 터치하여 도시된 바와 같이 좌측으로 드래그를 할 수 있다.
(b) 이에 제2오브젝트 B는 좌측으로 이동되며 사용자가 원하는 위치에서 멈추어 위치한다.
(c) 사용자는 제2오브젝트 B에 표시될 수 있는 표시형상 및 크기에 대한 표시영역을 터치하여 제1오브젝트 A로 변경시킬 수 있다.
설정에 따라 제2오브젝트 B를 제1오브젝트 A로 복귀시키는 사용자입력은 달라질 수 있다. 제2오브젝트B를 터치하는 것으로 원래의 위치로 이전의 제1오브젝트 A의 크기로 변경할 수도 있으며, 사용자의 드래그에 의해 위치가 변경되어 변경될 수도 있다. 또한, 제2오브젝트B는 터치스윙의 정도에 따라 화면 중앙영역의 위치로 이동되어 제1오브젝트 A로 변경이 될 수 있다. 그리고, 사용자의 터치스윙에 의해 반대측의 가장자리로 제2오브젝트B가 이동되어 위치할 수도 있다. 제2오브젝트B가 이동되는 중 제1오브젝트 A로 변경이 될 수도 있으며 변경되지 않고 이동만 할 수도 있다.
도 10은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 오브젝트의 크기, 형태, 색상 및 투명도 등을 나타내는 예시도이다.
사용자단말기(10)의 화면 중앙에서 가장자리로 이동되어 크기가 감소된 제2오브젝트는 여러 가지의 크기, 형상, 색상 및 투명도 등으로 표시될 수 있다.
제2오브젝트 B1은 반원 형상으로 전체화면/최소화화면을 표시하도록 하는 표시를 포함하고 있을 수 있다. 제2오브젝트 B1의 크기는 사용자의 설정에 따라 기설정될 수 있으며 변경될 수도 있다. 도 10에서는 가장자리 즉, 화면 우측에 밀착하여 위치하고 있지만 밀착하지 않고 화면 우측에서 약간 이격되어 위치할 수도 있다. 제2오브젝트 B1의 색상은 변경 전 제1오브젝트의 색상에 대응하여 설정되는 것이 바람직하다.
제2오브젝트 B2는 제2오브젝트 B1과는 달리 사각 형상으로 확대/감소되도록 하는 표시를 포함하고 있을 수 있다. 이에 의해 제2오브젝트 B2는 크기가 변경될 수도 있다. 사용자의 취향에 따라 사각 형상의 오브젝트로 설정될 수도 있으며 그 위치에 따라 제2오브젝트 B2의 형상을 변경시킬 수도 있다.
제2오브젝트 B3는 반원 형상으로 변경 전 제1오브젝트의 로고이미지가 표시되어 있을 수 있다. 또한, 제2오브젝트 B3는 하이라이트되어 다른 제2오브젝트와는 구별되도록 할 수도 있다. 하이라이트되어 다른 제2오브젝트와는 구별되게 하는 것은 저장되어 있어 재생에 대한 조정이 가능한 영상과는 중계되고 있는 방송영상일 수 있으며, 메신져의 경우 메시지가 도착한 것을 알리는 것으로 하이라이트가 될 수도 있다.
제2오브젝트 B4는 삼각형상으로 마련된 오브젝트일 수 있다.
제2오브젝트 B5는 화면의 가장자리에 위치하지만 다른 제2오브젝트들과는 다르게 제1오브젝트의 형상을 유지하고 있을 수 있다. 제2오브젝트 B5는 내용을 표시할 수 있도록 마련될 수 있으며 다른 제1오브젝트에는 시야적으로 덜 방해가 되도록 투명도를 가지게 설정될 수 있다. 이를 테면 일정표의 제1오브젝트는 그 내용을 간략하게라도 유지하여 사용자에게 정보를 제공할 수도 있다.
도 11은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 오브젝트를 중첩하여 표시하는 것을 나타내는 예시도이다.
제1오브젝트가 이동 및 변경되어 화면의 가장자리에 위치하는 제2오브젝트가 많아질 수도 있다. 이런 경우 사용자는 복수의 제1오브젝트를 유사한 방향으로 이동시켜 제2오브젝트로 변경할 수 있다. 사용자의 입력이 제2오브젝트가 위치하고 있는 방향이면 제어부(100)는 이동되어 온 제2오브젝트를 위치하고 있는 제2오브젝트의 양측으로 위치하게 할 수 있다. 또한, 설정에 따라서는 도 11에 도시된 바와 같이, 제2오브젝트(E, F, G, H, I, J)들이 중첩되어 표시될 수 있다. 이를테면 사용자는 어느 하나의 제1오브젝트를 우측으로 이동시켜서 제2오브젝트로 변경하였고 이동시킨 방향에 원하는 제2오브젝트가 있을 것으로 판단하고 있는데 중첩하지 않고 계속 유사한 방향으로 사용자가 제1오브젝트를 이동시키면 우측의 화면 가장자리를 따라 사용자가 이동시킨 방향과는 다른 방향에 제2오브젝트가 위치하게 되면 사용자는 조금 혼돈이 될 수도 있으므로 중첩하여 제2오브젝트의 그룹을 형성하게 할 수 있다. 물론 화면의 중앙영역을 가리지 않는 범위까지 중첩되도록 설정하는 것이 바람직하다.
도 12는 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 중첩된 오브젝트 각각에 대하여 알리는 것을 나타내는 예시도이다.
도 11의 설명과 같이 제2오브젝트들이 중첩되어 있는 경우 중첩된 제2오브젝트들이 어떠한 어플리케이션의 오브젝트인지 알기 어려울 수도 있다. 그러므로 사용자가 제2오브젝트의 그룹을 터치하거나 터치하기 위하여 사용자와 디스플레이부(120) 화면과의 거리가 소정 거리 이내이면 각 제2오브젝트에 대하여 어떠한 어플리케이션의 오브젝트인지를 안내할 수 있다. UI를 통하여 각각 전체에 대하여 안내를 할 수도 있으며 사용자가 선택한 제2오브젝트에 대하여만 안내를 할 수도 있다. 도 12에 도시된 바와 같이, 중첩되어 있는 제2오브젝트(E, F, G, H, I, J) 들에 대하여 안내UI (a)를 표시할 수도 있다.
도 13은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 가장자리의 오브젝트를 사용자의 터치스윙에 의한 입력으로 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이다.
사용자단말기(10)의 화면 중앙에서 가장자리로 이동되어 크기가 감소된 제2오브젝트(B)를 사용자는 터치하여 좌측으로 D1거리만큼 드래그한 후 터치를 해제할 수 있다. 사용자입력에 의해 제2오브젝트는 제1오브젝트로 변경되어 화면에 표시될 수 있다. 그리고 사용자의 좌측으로 D1거리만큼 드래그한 속도에 따라 제1오브젝트가 이동되어 A1영역 내지 A2영역 중 어느 한 영역에 표시될 수 있다. 사용자의 드래그이동속도가 크면 클수록 대응하여 제1오브젝트는 많이 이동되어 화면의 좌측으로 많이 이동될 수 있으며, 사용자의 드래그이동속도가 작으면 작을수록 제1오브젝트는 적게 이동되어 화면의 좌측으로 적게 이동될 수 있을 것이다.
도 14는 본 발명의 일 실시 예에 따른 사용자단말기에서 복수의 오브젝트를 가장자리로 이동하여 감소시키고 복귀시키는 것을 나타내는 예시도이다.
사용자는 복수의 제1오브젝트(A1, A2, A3)를 3개의 손가락을 이용하여 터치(T1, T2, T3)하여 선택한 후 D1방향으로 드래그하여 스윙을 하면서 터치를 해제할 수 있다. 이에 대하여 복수의 제1오브젝트(A1, A2, A3)는 D1방향에 대한 가장자리의 위치로 이동되어 제2오브젝트로 변경될 수 있다. 이와 같이 한꺼번에 복수의 제1오브젝트를 이동시켜 대응하는 각각의 제1오브젝트로 변경하는 것도 가능하다. 반대로 제2오브젝트를 제1오브젝트로 해제/ 변경하는 경우도 마찬가지로 복수의 제2오브젝트(B, C, D)를 사용자는 3개의 손가락을 이용하여 터치(T4, T5, T6)하여 선택한 후 D2방향으로 드래그하여 스윙을 하면서 터치를 해제할 수 있다. 이에 따라 제2오브젝트(B, C, D)는 각각 복수의 제1오브젝트(A1, A2, A3)로 변경되어 화면 중앙영역에 표시될 수도 있다.
상기의 사용자단말기(10)로 인하여, 디스플레이부(120) 화면의 중앙영역에 시야를 방해할 수 있는 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있음으로써 직관적으로 손쉽게 사용자단말기(10)를 사용할 수 있다.
지금까지 본 발명의 실시 예가 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 실시 예를 변형할 수 있을 것이다. 따라서, 발명의 범위는 지금까지 설명된 실시 예로 정해지는 것이 아니라 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
10 : 사용자단말기 100 : 제어부
110 : 영상처리부 120 : 디스플레이부
130 : 통신부 140 : 저장부
150 : 사용자입력부 160 : 음성수신부
170 : 촬상부 180 : UI생성부

Claims (20)

  1. 사용자단말기에 있어서,
    영상을 처리할 수 있는 영상처리부와;
    상기 처리된 영상을 표시할 수 있는 디스플레이부와;
    상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 사용자단말기.
  2. 제1항에 있어서,
    상기 제어부는 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 사용자단말기.
  3. 제2항에 있어서,
    상기 제어부는 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 사용자단말기.
  4. 제1항에 있어서,
    상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함하는 사용자단말기.
  5. 제1항에 있어서,
    상기 제어부는 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 사용자단말기.
  6. 제5항에 있어서,
    상기 제어부는 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정하는 사용자단말기.
  7. 제1항에 있어서,
    상기 제어부는 복수의 상기 제2오브젝트를 중첩하여 표시하는 사용자단말기.
  8. 제7항에 있어서,
    상기 제어부는 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알리는 사용자단말기.
  9. 제1항에 있어서,
    상기 제어부는 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정하는 사용자단말기.
  10. 제1항에 있어서,
    상기 제어부는 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경하는 사용자단말기.
  11. 사용자단말기의 제어방법에 있어서,
    영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키는 단계와;
    상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경하는 단계와;
    상기 변경된 제2오브젝트를 표시하는 단계를 포함하는 사용자단말기의 제어방법.
  12. 제11항에 있어서,
    상기 이동시키는 단계는,
    상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 단계를 포함하는 사용자단말기의 제어방법.
  13. 제12항에 있어서,
    상기 제2오브젝트의 위치를 결정하는 단계는,
    상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 단계를 포함하는 사용자단말기의 제어방법.
  14. 제11항에 있어서,
    상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함하는 사용자단말기의 제어방법.
  15. 제11항에 있어서,
    상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 단계를 더 포함하는 사용자단말기의 제어방법.
  16. 제15항에 있어서,
    상기 제1오브젝트로 변경하는 단계는,
    상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정하는 단계를 포함하는 사용자단말기의 제어방법.
  17. 제11항에 있어서,
    복수의 상기 제2오브젝트를 중첩하여 표시하는 단계를 더 포함하는 사용자단말기의 제어방법.
  18. 제17항에 있어서,
    상기 중첩하여 표시하는 단계는,
    상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알리는 단계를 포함하는 사용자단말기의 제어방법.
  19. 제11항에 있어서,
    상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정하는 단계를 더 포함하는 사용자단말기의 제어방법.
  20. 제12항에 있어서,
    상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경하는 단계를 더 포함하는 사용자단말기의 제어방법.
KR1020160008338A 2016-01-22 2016-01-22 사용자단말기 및 그 제어방법 KR20170088229A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160008338A KR20170088229A (ko) 2016-01-22 2016-01-22 사용자단말기 및 그 제어방법
PCT/KR2016/004323 WO2017126744A1 (ko) 2016-01-22 2016-04-26 사용자단말기 및 그 제어방법
US16/069,597 US10824314B2 (en) 2016-01-22 2016-04-26 User terminal and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160008338A KR20170088229A (ko) 2016-01-22 2016-01-22 사용자단말기 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20170088229A true KR20170088229A (ko) 2017-08-01

Family

ID=59362015

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160008338A KR20170088229A (ko) 2016-01-22 2016-01-22 사용자단말기 및 그 제어방법

Country Status (3)

Country Link
US (1) US10824314B2 (ko)
KR (1) KR20170088229A (ko)
WO (1) WO2017126744A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD915446S1 (en) * 2019-02-19 2021-04-06 Beijing Xiaomi Mobile Software Co., Ltd. Mobile phone with animated graphical user interface
CN112118333A (zh) * 2019-06-20 2020-12-22 摩托罗拉移动有限责任公司 响应于用户输入改变操作模式的电子设备和相应方法
CN113920224A (zh) * 2021-09-29 2022-01-11 北京达佳互联信息技术有限公司 素材展示方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
WO2013051762A1 (ko) 2011-10-05 2013-04-11 한국과학기술원 베젤 영역을 이용한 사용자 단말 제어방법
US20130132885A1 (en) * 2011-11-17 2013-05-23 Lenovo (Singapore) Pte. Ltd. Systems and methods for using touch input to move objects to an external display and interact with objects on an external display
EP2610725B1 (en) * 2011-12-29 2019-10-23 Orange Drag and drop operation in a graphical user interface with size alteration of the dragged object
WO2013151322A1 (en) 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR20150077774A (ko) 2013-12-30 2015-07-08 삼성전자주식회사 화면 전환 방법 및 그 장치

Also Published As

Publication number Publication date
US10824314B2 (en) 2020-11-03
WO2017126744A1 (ko) 2017-07-27
US20190026012A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
KR101621524B1 (ko) 디스플레이장치 및 그 제어방법
EP2428875B1 (en) Image display apparatus and method for operating the same
US11841995B2 (en) Display device and method thereof
KR20130080891A (ko) 디스플레이장치 및 그 제어방법
US10582252B2 (en) Display device, television receiver, program, and recording medium
US9342168B2 (en) Input apparatus, display apparatus, control method thereof and display system
US9595186B2 (en) Electronic device combining functions of touch screen and remote control and operation control method thereof
KR20140134453A (ko) 입력장치, 디스플레이장치 및 그 제어방법
EP3300377B1 (en) Display apparatus and operating method thereof
KR20150031986A (ko) 디스플레이장치 및 그 제어방법
JP2013143139A (ja) 入力装置、ディスプレイ装置、その制御方法及びディスプレイシステム
US20140240263A1 (en) Display apparatus, input apparatus, and control method thereof
KR20130054579A (ko) 디스플레이장치 및 그 제어방법
KR20110103789A (ko) 리모컨 및 그 제어방법, 디스플레이장치 및 그 제어방법, 디스플레이시스템 및 그 제어방법
EP2605527B1 (en) A method and system for mapping visual display screens to touch screens
KR20170088229A (ko) 사용자단말기 및 그 제어방법
KR102250091B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR20170009302A (ko) 디스플레이장치 및 그 제어방법
KR101888680B1 (ko) 디스플레이장치 및 그 제어방법
JP2010182134A (ja) リモコンシステム、制御端末装置及び、選択状態表示変更方法
US20160124606A1 (en) Display apparatus, system, and controlling method thereof
US9066042B2 (en) Terminal device and control method thereof
KR101974176B1 (ko) 디스플레이장치와 그 제어방법
KR20160084239A (ko) 디스플레이 장치 및 디스플레이 방법
US20150089451A1 (en) User terminal, electronic device, and control method thereof