KR101670352B1 - 이동 단말기, 전자 기기 및 전자 기기의 제어 방법 - Google Patents

이동 단말기, 전자 기기 및 전자 기기의 제어 방법 Download PDF

Info

Publication number
KR101670352B1
KR101670352B1 KR1020090118974A KR20090118974A KR101670352B1 KR 101670352 B1 KR101670352 B1 KR 101670352B1 KR 1020090118974 A KR1020090118974 A KR 1020090118974A KR 20090118974 A KR20090118974 A KR 20090118974A KR 101670352 B1 KR101670352 B1 KR 101670352B1
Authority
KR
South Korea
Prior art keywords
mobile terminal
area
touch
point
display unit
Prior art date
Application number
KR1020090118974A
Other languages
English (en)
Other versions
KR20110062296A (ko
Inventor
조상현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090118974A priority Critical patent/KR101670352B1/ko
Priority to US12/959,118 priority patent/US9223493B2/en
Publication of KR20110062296A publication Critical patent/KR20110062296A/ko
Priority to US14/968,440 priority patent/US9965058B2/en
Application granted granted Critical
Publication of KR101670352B1 publication Critical patent/KR101670352B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 이동 단말기, 전자 기기 및 전자 기기의 제어 방법에 관한 것이다. 본 발명은, 터치 디바이스를 구비한 이동 단말기를 이용하여 쉽고 직관적으로 상기 전자 기기를 제어할 수 있는, 이동 단말기, 전자 기기 및 전자 기기의 제어 방법을 제공한다.
이동 단말기, 전자 기기, 터치 디바이스

Description

이동 단말기, 전자 기기 및 전자 기기의 제어 방법 {Mobile Terminal, Electronic Device and Method Of Controlling Electronic Device}
본 발명은 이동 단말기 및 전자 기기에 관한 것으로서, 이동 단말기에 구비된 터치 디바이스를 통해 전자 기기를 쉽고 직관적으로 제어할 수 있는, 이동 단말기, 전자 기기 및 전자 기기의 제어 방법에 관한 것이다.
최근 DTV와 같은 전자 기기는, 기존의 고유한 기능 이외의 다양한 기능들이 탑재되는 경우가 많다. 따라서, 이러한 다양한 기능들의 제어를 위한 사용자 인터페이스 또한 복잡해지고 다양해지는 추세이다.
리모트 콘트롤(remote controller)를 비롯하여 상기와 같은 전자 기기를 제어할 수 있는 단말이 보급되고 있으나, 상기와 같은 다양한 기능들을 효율적으로 제어하기가 쉽지 않은 상황이다.
본 발명의 과제는, 이동 단말기에 구비된 터치 디바이스를 통해 전자 기기를 쉽고 직관적으로 제어할 수 있는, 이동 단말기, 전자 기기 및 전자 기기의 제어 방법을 제공하는 것이다.
본 발명의 제1 양상에 따른 이동 단말기는, 디스플레이부를 포함하는 전자 기기(electronic device)와 통신 가능한 이동 단말기에 있어서, 터치 디바이스(touch device); 상기 전자 기기와 통신하기 위한 통신부; 및 절대좌표계에 기반한 위치 대응이 이루어지도록 상기 디스플레이부에 포함된 표시 영역과 상기 터치 디바이스에 포함된 터치 영역을 대응시키고, 상기 터치 영역을 통해 터치된 제1 지점에 대응되는 상기 표시 영역의 제2 지점에 관한 위치 정보를 포함하는 제어 정보를 상기 통신부를 통해 상기 전자 기기로 전송하는 제어부를 포함하여 이루어진다.
본 발명의 제2 양상에 따른 이동 단말기는, 디스플레이부를 포함하는 전자 기기(electronic device)와 통신 가능한 이동 단말기에 있어서, 터치 디바이스(touch device); 상기 전자 기기와 통신하기 위한 통신부; 상기 터치 디바이스의 오리엔테이션(orientation)을 감지하는 센싱부; 및 상기 터치 디바이스에 포함된 터치 영역을 통해 터치된 지점에 관한 위치 정보와, 상기 터치 디바이스의 현재 오리엔테이션에 관한 정보를 포함하는 제어 정보를 상기 통신부를 통해 상기 전자 기기로 전송하는 제어부를 포함하여 이루어진다.
본 발명의 제3 양상에 따른 전자 기기는, 터치 디바이스(touch device)를 포함하는 이동 단말기와 통신 가능한 전자 기기(electronic device)에 있어서, 표시 영역을 포함하는 디스플레이부; 상기 이동 단말기와 통신하기 위한 통신부; 및 절대좌표계에 기반한 위치 대응이 이루어지도록 상기 표시 영역과 상기 터치 디바이스에 포함된 터치 영역을 대응시키고, 상기 터치 영역에 대한 터치 지점에 관한 정보를 포함하는 제어 정보를 상기 이동 단말기로부터 상기 통신부를 통해 수신하고, 상기 수신된 터치 지점에 대응되는 상기 표시 영역의 지점과 관련된 기능을 수행하는 제어부를 포함하여 이루어진다.
본 발명의 제4 양상에 따른 전자 기기의 제어 방법은, 디스플레이부를 포함하는 전자 기기(electronic device)와 통신 가능한 이동 단말기에서, 상기 전자 기기를 제어하는 방법에 있어서, 절대좌표계에 기반한 위치 대응이 이루어지도록, 상기 디스플레이부에 포함된 표시 영역과, 상기 이동 단말기에 구비된 터치 디바이스(device)에 포함된 터치 영역을 대응시키는 단계; 상기 터치 영역에 포함된 제1 지점에 대한 터치를 수신하는 단계; 및 상기 제1 지점과 대응되는 상기 표시 영역의 제2 지점에 관한 위치 정보를 포함하는 제어 정보를 상기 전자 기기로 전송하는 단계를 포함하여 이루어진다.
본 발명의 제5 양상에 따른 전자 기기의 제어 방법은, 디스플레이부를 포함하는 전자 기기(electronic device)와 통신 가능한 이동 단말기에서, 상기 전자 기기를 제어하는 방법에 있어서, 상기 이동 단말기에 구비된 터치 디바이스(device)에 포함된 터치 영역에 포함된 지점에 대한 터치를 수신하는 단계; 상기 터치 디바 이스의 현재 오리엔테이션에 관한 정보를 획득하는 단계; 및 상기 지점에 관한 위치 정보와 상기 오리엔테이션에 관한 정보를 포함하는 제어 정보를 상기 전자 기기로 전송하는 단계를 포함하여 이루어진다.
본 발명의 제6 양상에 따른 전자 기기의 제어 방법은, 터치 디바이스(touch device)를 포함하는 이동 단말기와 통신 가능한 전자 기기(electronic device)에서, 상기 전자 기기를 제어하는 방법에 있어서, 절대좌표계에 기반한 위치 대응이 이루어지도록, 상기 전자 기기에 구비된 디스플레이부에 포함된 표시 영역과, 상기 터치 디바이스(device)에 포함된 터치 영역을 대응시키는 단계; 상기 이동 단말기로부터 상기 터치 영역에 대한 터치 지점에 관한 정보를 포함하는 제어 정보를 수신하는 단계; 및 상기 수신된 터치 지점에 대응되는 상기 표시 영역의 지점과 관련된 기능을 실행하는 단계를 포함하여 이루어진다.
본 발명에 따른 이동 단말기, 전자 기기 및 전자 기기의 제어 방법에 의하면, 다음과 같은 효과가 있다.
본 발명에 의하면, 이동 단말기에 구비된 터치 디바이스의 터치 영역과 전자 기기에 구비된 디스플레이부의 표시 영역이 1:1로 매칭될 수 있으므로, 사용자는 상기 터치 영역을 통해 직관적으로 상기 표시 영역을 제어할 수 있다.
또한 본 발명에 의하면, 이동 단말기의 자세 변화를 자동으로 감지하고, 상기 터치 영역과 상기 표시 영역의 대응 관계에 상기 자세 변화를 반영함으로써, 사용자는 직관성을 유지할 수 있다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
이하, 본 발명과 관련된 전자 기기 및 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명이 적용되는 시스템은, 전자 기기와 이를 제어하기 위한 이동 단말기를 포함하여 구성될 수 있다. 이하 상기 전자 기기의 예로서 DTV(digital television)를 상정하여 설명하기로 한다. 그러나 본 문서에서 개시되는 상기 전자 기기가, DTV에 한정되는 것은 아님을 분명히 밝혀둔다. 예를 들어, 상기 전자 기기는, 셋톱박스(settop box; STB), IPTV(Internet Protocol TV), 퍼스널 컴퓨터(personal computer) 등일 수 있다.
도 1은 본 발명이 적용되는 시스템을 개략적으로 도시한 도면이다. 본 발명이 적용되는 시스템은, 도 1에 도시된 바와 같이, DTV(10), 이동 단말기(100), 방 송국(broadcasting station, 300) 및 인터넷(internet, 400)을 포함할 수 있다.
상기 DTV(10)는, 상기 방송국(300)으로부터 방송 신호를 수신하여 출력할 수 있다. 또한 상기 DTV(10)는 TCP/IP(Transmission Control Protocol/Internet Protocol)에 의해 인터넷(400)에 접속할 수 있는 장치를 구비할 수 있다.
상기 이동 단말기(100)와 상기 DTV(10)는 유선 및/또는 무선으로 연결되어 데이터를 송수신할 수 있다.
도 2는 본 발명의 실시예에 따른 DTV(10)의 블록 구성도이다. 도 2를 참조하여 본 발명의 실시예에 따른 DTV(10)를 상세히 설명하기로 한다.
본 발명의 실시예에 따른 DTV(10)는, 튜너부(Tuner, 11), 복조부(demodulator, 12), 역다중화부(demultiplexer, 13), 오디오/비디오 디코더(Audio/Video decoder, 14), 디스플레이(display)부(15), PSI/PSIP(Program and System Information/Program and System Information Protocol) 데이터 베이스(Data Base)(16), PSI/PSIP 디코더(17), 채널 매니저(Channel Manager, 18), 채널 맵(Channel Map, 19), 제어부(20), 메모리(flash memory, 21) 및 통신부(22)를 포함하여 구성될 수 있다.
상기 튜너부(11)는 PSI/PSIP 테이블을 포함하는 디지털 방송 신호를 수신할 수 있다. 한편, 상기 튜너부(11)의 동작은 상기 채널 매니저(18)에 의해 제어될 수 있다. 따라서, 상기 튜너부(11)는 수신되는 디지털 방송 신호의 결과를 상기 채널 매니저(18)에 기록해 둔다. 상기 튜너부(11)는 복수의 튜너를 탑재할 수 있어 다채 널 수신이 가능할 수 있다.
상기 복조부(12)는 상기 튜너부(11)에서 튜닝된 신호를 수신하여 VSB/EVSB(Vestigal Side Band/Enhanced Vestigal Side Band) 신호로 복조하는 기능을 담당한다.
상기 역다중화부(13)는 상기 복조부(12)에서 복조되어 수신되는 전송 패킷들로부터 오디오, 비디오 그리고 PSI/PSIP 테이블 데이터로 역다중화(demultiplexing)한다.
이때, PSI/PSIP 테이블 데이터에 대한 역다중화는 상기 PSI/PSIP 디코더(17)에 의해 제어될 수 있으며, 오디오와 비디오에 대한 역다중화는 상기 채널 매니저(18)에 의해 제어될 수 있다.
그리고 상기 역다중화부(13)는 상기 PSI/PSIP 디코더(17)에서 원하는 테이블에 대한 PID를 조건으로 설정하면, 상기 전송 패킷들로부터 상기 PID를 만족하는 PSI/PSIP 테이블의 섹션들을 만들어 상기 PSI/PSIP 디코더(17)로 전송한다. 또한, 상기 역다중화기(13)는 상기 채널 매니저(18)에 의해 해당 가상 채널의 A/V PID가 조건으로 설정되면 A/V 기본 스트림을 역다중화한 후 상기 A/V 디코더(14)로 전송한다. 상기 A/V 디코더(14)는 수신한 방송 데이터를 해당 코딩 방식에 따라 디코딩한다.
상기 PSI/PSIP 디코더(17)는 PSI/PSIP 테이블 섹션(section)을 파싱하고, 상기 역다중화부(13)의 섹션 필터링에서 하지 못한 나머지 액츄얼 섹션 데이터(actual section data) 부분을 모두 읽어서 상기 PSI/PSIP 데이터 베이스(16)에 기록한다.
상기 채널 매니저(18)는 상기 채널 맵(19) 을 참조하여, 채널 관련 정보 테이블에 대한 수신을 요청하고 그 결과를 수신할 수 있다. 이때, 상기 PSI/PSIP 디코더(17)는 상기 채널 관련 정보 테이블을 역다중화(demuxing) 제어하여, A/V PID(Packet IDentifier) 리스트를 상기 채널 매니저(18)에 전송한다.
상기 채널 매니저(18)는 수신된 A/V PID를 이용하여 상기 역다중화부(13)를 직접 제어함으로써 상기 A/V 디코더(14)를 제어할 수 있다.
그리고 상기 제어부(20)는 수신기 시스템의 상태를 OSD(On Screen Display)로 디스플레이(display)시키는 GUI(Graphical User Interface)를 제어할 수 있다. 또한, 상기 구성요소들을 제어하고, 상기 DTV(10)의 전반적인 동작을 총괄한다.
상기 디스플레이부(15)는 상기 A/V 디코더(14)로부터 출력된 방송 데이터를 음성과 영상으로 구현한다. 상기 디스플레이부(15)는 물리적으로 또는 논리적으로 서로 별개로 설치되는 복수의 디스플레이부들을 포함할 수 있다.
상기 디스플레이부(15)는, 방송데이터를 수신하여 출력할 수 있으며, 통상의 DTV에서의 디스플레이 기능을 모두 보유할 수 있다.
상기 디스플레이부(15)는, 상기 방송 데이터에서 분리되거나 또는 별도로 수신된 데이터 방송, 문자방송, 자막, 광고 등을 표시할 수 있다. 또한, 상기 디스플레이부(15)는, 주식정보, 날씨정보 등의 부가정보와 인스턴트 메시지 창 등이 표시할 수 있다.
상기 통신부(22)는, 상기 이동 단말기(100)과 통신을 수행할 수 있다. 예를 들어, 상기 통신부(22)와 상기 이동 단말기(100)은, RF 통신 방식 또는 적외선 통신 방식이나 블루투스(bluetooth)와 같은 근거리 통신 방식에 의해 통신을 수행할 수 있다. 상기 이동 단말기(100)와 상기 DTV(10) 간의 통신 방식은 어느 하나에 한정되지 않는다.
도 3은 본 발명의 실시예에 따른 이동 단말기(100)의 외관의 예를 도시한 도면이고, 도 4는 본 발명의 실시예에 따른 이동 단말기(100)의 블록 구성도이다. 도 3 및 도 4를 참조하여 본 발명의 실시예에 따른 이동 단말기를 상세히 설명하기로 한다.
상기 이동 단말기(100)는, 터치 디바이스(30), 무선 통신부(110), 사용자 입력부(130), 센싱부(140), 햅틱 모듈(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
상기 터치 디바이스(30)는, 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)를 구비한다. 상기 터치 센서는, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
상기 터치 센서는 상기 터치 디바이스(30)의 특정 부위에 가해진 압력 또는 상기 터치 디바이스(30)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 상기 터치 센서는, 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 상기 제어부(180)로 전송한다. 이로써, 상기 제어부(180)는 상기 터치 디바이스(30)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 터치 디바이스(30)는, 디스플레이 수단을 포함할 수도 있다. 상기 터치 디바이스(30)가 디스플레이 수단을 포함하는 경우, 입력 장치 뿐만 아니라 표시 장치까지의 기능을 수행할 수 있다.
무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이 또는 이동 단말기(100)와 상기 DTV(10) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 상기 무선 통신부(110)는, 이동통신 모듈, 무선 인터넷 모듈 및 근거리 통신 모듈 등을 포함할 수 있다.
상기 이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
상기 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
상기 근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
상기 사용자 입력부(130)는, 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
상기 센싱부(140)는, 상기 이동 단말기(100)의 개폐 상태, 상기 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 상기 이동 단말기(100)의 현 상태를 감지하여 상기 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는, 근접 센서를 포함할 수 있다.
상기 센싱부(140)는, 그랩 센서(grab sensor, 141) 및 가속도 센서(142) 중 적어도 하나를 포함할 수 있다.
상기 그랩 센서(141)는, 외부 객체의 상기 이동 단말기의 바디(body)에 대한 접촉 위치를 감지할 수 있도록 배치될 수 있다.
예를 들어 상기 그랩 센서(141)는, 도 3에 도시된 바와 같이, 상기 터치 디바이스(30)의 주변 4방향에 배치되는 제1 내지 제4 그랩 센서(141a, 141b, 141c, 141d)를 포함할 수 있다. 그러나 도 3에 도시된 상기 그랩 센서(141)의 배치 구조가 절대적인 것은 아니며, 다른 방식으로 배치되거나, 배치되는 개수 또한 달라질 수 있다.
예를 들어 사용자가 상기 이동 단말기(100)를 오른손으로 쥘 때, 상기 터치 디바이스(30)의 오른쪽을 쥐는 경우, 상기 제3 그랩 센서(141c)가 이를 감지하여 상기 제어부(180)로 신호를 전달할 수 있다.
상기 가속도 센서(142)는, 3축 가속도 센서(3-axis accelerometer)일 수 있다.
상기 햅틱 모듈(150)은, 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(150)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅틱 모듈(150)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(150)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발 열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(150)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(150)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
상기 인터페이스부(170)는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이 들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
이하 본 발명의 다양한 실시예들을 구체적으로 설명하기로 한다.
전술한 바와 같이, 상기 이동 단말기(100)와 상기 DTV(10)는 유무선으로 연결될 수 있다.
상기 이동 단말기(100)는, 상기 DTV(10)를 제어하기 위한 리모트 콘트롤(remote controller)로 사용될 수 있다. 그러나 상기 이동 단말기(100)가 일반적 인 리모트 콘트롤에 한정되는 것은 아니다.
본 문서에서 개시되는 상기 이동 단말기(100)는, 상기 DTV(10)와 통신 가능한 모든 전자 기기들을 포함할 수 있다. 예를 들어 상기 이동 단말기(100)는, 리모트 콘트롤(remote controller), 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등을 포함할 수 있다.
도 5는 상기 이동 단말기(100)의 예로서 휴대폰의 외관의 예를 도시한다.
한편 상기 DTV(10)에 구비된 상기 디스플레이부(15)는, 콘텐츠를 표시하는 표시 영역을 포함한다. 그리고 상기 이동 단말기(100)에 구비된 상기 터치 디바이스(30)는, 터치 영역을 포함한다.
상기 표시 영역은, 상기 디스플레이부(15)의 전체 또는 일부이고, 상기 터치 영역은, 상기 터치 디바이스(30)의 전체 또는 일부일 수 있다.
도 6은 본 발명의 제1 실시예에 따른 DTV의 제어 방법의 흐름도이다. 본 발명의 제1 실시예에 따른 DTV의 제어 방법은, 도 1 내지 도 5를 참조하여 설명한 상기 DTV(10) 및 상기 이동 단말기(100)에서 구현될 수 있다. 이하 도 6 및 필요한 도면들을 참조하여, 본 발명의 제1 실시예에 따른 DTV의 제어 방법과, 이를 구현하기 위한 상기 DTV(10) 및 상기 이동 단말기(100)의 동작을 상세히 설명하기로 한다.
상기 이동 단말기(100)는, 상기 DTV(10)에 구비된 상기 디스플레이부(15)에 포함된 상기 표시 영역과 상기 터치 디바이스(30)에 포함된 상기 터치 영역이 서로 절대좌표계에 기반한 위치 대응이 이루어지도록, 상기 표시 영역과 상기 터치 영역을 대응시킨다[S100].
상기 이동 단말기(100)는, 상기 DTV(10)의 상기 디스플레이부(15) 또는 상기 표시 영역의 해상도 정보를 상기 메모리(160)에 저장하고 있을 수 있다. 또는 상기 이동 단말기(100)는, 상기 디스플레이부(15) 또는 상기 표시 영역의 상기 해상도 정보를 상기 DTV(10)로부터 전달받을 수 있다.
도 7은 상기 표시 영역과 상기 터치 영역을 대응시키는 예를 도시한다. 도 7은, 상기 디스플레이부(15)의 전체가 상기 표시 영역이 되고, 상기 터치 디바이스(30)의 전체가 상기 터치 영역이 되는 경우이다.
한편, 상기 표시 영역은, 상기 디스플레이부(15)의 일부이고, 상기 터치 영역은 상기 터치 디바이스(30)의 일부일 수 있다.
도 7을 참조하면, 상기 이동 단말기(100)는, 상기 표시 영역(15)의 A, B, C 및 D가 상기 터치 영역(30)의 a, b, c 및 d에 각각 대응되도록, 상기 표시 영역(15)과 상기 터치 영역(30)을 대응시킨다.
따라서 상기 터치 영역(30)의 각 지점은, 상기 표시 영역(15)의 각 지점에 1:1로 대응될 수 있다.
상기 이동 단말기(100)에 구비된 상기 메모리(160)는, 상기 터치 영역(30)과 상기 표시 영역(15)의 대응 관계에 관한 정보를 저장할 수 있다.
상기 이동 단말기(100)는, 상기 터치 영역(30)에 포함된 제1 지점에 대한 터 치를 수신한다[S110].
한편 상기 이동 단말기(100)는, 상기 터치 영역(30)이 터치됨에 따라, 상기 햅틱 모듈(150)을 제어하여 진동을 발생시킬 수 있다[S111].
그리고 상기 이동 단말기(100)의 상기 제어부(180)는, 상기 터치된 제1 지점에 대응되는, 상기 표시 영역(15)에 포함된 제2 지점에 관한 위치 정보를 획득할 수 있다[S120].
상기 이동 단말기(100)의 상기 제어부(180)는, 상기 S110 단계에서 이루어진 상기 대응 관계에 따라, 상기 S120 단계를 수행할 수 있다.
도 8은 상기 터치 영역과 상기 표시 영역의 1:1 대응 관계를 설명하기 위한 도면이다.
예를 들어 도 8을 참조하면, 상기 터치 영역(30)에 대한 외부 객체(32)의 터치 지점(e)은, 상기 표시 영역(15)의 특정 지점(E)에 대응될 수 있다.
따라서 상기 제어부(180)는, 도 8에서 상기 외부 객체(32)가 상기 터치 지점(e)을 터치함에 따라, 상기 표시 영역(15)의 상기 특정 지점(E)에 관한 위치 정보를 획득할 수 있다.
상기 특정 지점(E)에 관한 위치 정보는, 상기 표시 영역(15)에서의 좌표값을 포함할 수 있다.
상기 이동 단말기(100)는, 상기 획득된 제2 지점에 관한 위치정보를 포함하는 제어 정보를 상기 DTV(10)로 전송한다[S130].
한편 상기 DTV(10)는, 특정 콘텐츠를 출력할 수 있다[S140]. 예를 들어 상기 DTV(10)는, 상기 특정 콘텐츠를 상기 디스플레이부(15)에 표시할 수 있다.
상기 DTV(10)에서 출력되는 상기 콘텐츠는, 정지영상, 동영상, 텍스트 및 오브젝트(object)를 포함할 수 있다. 예를 들어, 상기 콘텐츠는, 사진, 방송, 음악 또는 영화일 수 있다. 또한 예를 들어 상기 오브젝트는, 상기 DTV(10)에서 제공되는 UI(user interface), GUI(graphical user interface), 아이콘 등일 수 있다.
상기 DTV(10)는, 상기 이동 단말기(100)로부터 상기 제어 정보를 수신하고, 상기 수신된 제어 정보에 포함된 상기 제2 지점에 관한 위치정보에 따라, 상기 제2 지점과 관련된 기능을 수행할 수 있다[S150].
상기 제2 지점과 관련된 기능은 다양할 수 있다.
예를 들어, 상기 제2 지점과 관련된 기능은, 상기 제2 지점에 포인터를 위치시키는 기능과, 상기 제2 지점에 존재하는 아이콘을 선택하는 기능과, 상기 아이콘을 실행시키는 기능 중 적어도 하나를 포함할 수 있다.
예를 들어 도 8을 참조하면, 상기 외부 객체(32)의 상기 터치 지점(e)에 대한 터치에 따라, 상기 DTV(10)의 상기 제어부(20)는 상기 터치 지점(e)에 대응되는 상기 표시 영역(15)의 상기 특정 지점(E)에 포인터(33)를 표시할 수 있다.
한편 상기 이동 단말기(100)는, 상기 터치 영역(30)에 대한 터치의 세기에 관한 정보를 획득할 수 있다.
그리고 상기 이동 단말기(100)는, 상기 터치의 세기에 관한 정보를 더 포함하는 상기 제어 정보를 상기 DTV(10)로 전송할 수 있다.
상기 DTV(10)는, 상기 제어 정보에 상기 터치의 세기에 관한 정보가 포함된 경우, 상기 터치의 세기에 따라 서로 다른 기능을 수행할 수 있다.
예를 들어, 상기 이동 단말기(100)로부터 수신된 상기 제어 정보에 포함된 위치 정보에 대응되는 지점에 특정 아이콘이 존재한다고 가정하자.
상기 DTV(10)는, 상기 제어 정보에 포함된 터치의 세기가 기준값 미만이면, 상기 특정 아이콘을 선택하고, 상기 제어 정보에 포함된 터치의 세기가 기준값 이상이면, 상기 특정 아이콘에 대응되는 특정 기능을 실행할 수 있다.
즉 사용자는, 상기 특정 아이콘이 위치한 지점에 대응되는, 상기 터치 영역(30)의 어느 지점을 약하게 터치함으로써 상기 특정 아이콘을 선택하거나, 상기 어느 지점을 세게 터치함으로써 상기 특정 아이콘에 대응되는 기능을 실행시킬 수 있다.
도 9는 상기 표시 영역에 표시되는 포인터를 제어하는 다른 예를 도시한 도면이다.
예를 들어 도 9를 참조하면, 사용자가 손가락(32)으로 제1 터치 지점(e)을 터치하면, 상기 이동 단말기(100)는, 상기 제1 터치 지점(e)에 대응되는 상기 표시 영역(30)의 제1 지점(E)에 관한 정보를 획득하고, 상기 대응되는 제1 지점(E)에 관한 위치 정보를 상기 DTV(10)로 전송한다. 그리고 상기 DTV(10)는, 상기 제1 지점(E)에 상기 포인터(33)를 위치시킨다.
그리고 사용자가 손가락(32)을 상기 제1 터치 지점(e)으로부터 제2 터치 지점(f)로 드래그하면, 상기 이동 단말기(100)는, 상기 드래그 동작과 관련된 제어 정보를 상기 DTV(10)로 전송한다. 그리고 상기 DTV(10)는, 상기 이동 단말기(100) 로부터 상기 드래그 동작과 관련된 상기 제어 정보를 수신하고, 상기 포인터(33)를 상기 제1 지점(E)에서 제2 지점(F)로 이동시킨다. 상기 제2 지점(F)은, 상기 터치 영역(30)의 상기 제2 터치 지점(f)과 대응되는 지점이다.
한편 상기 이동 단말기(100)의 상기 제어부(180)는, 상기 S100 단계를 수행함에 있어서, 상기 터치 디바이스(30)의 오리엔테이션(orientation)을 고려할 수 있다.
도 10은, 상기 터치 디바이스(30)의 오리엔테이션을 고려하여 수행되는 상기 S100 단계의 세부 흐름도이다.
상기 제어부(180)는, 상기 터치 디바이스(30)의 오리엔테이션의 변화를 감지할 수 있다[S103].
상기 이동 단말기(100)에 구비된 상기 센싱부(140)는, 상기 터치 디바이스(30)의 오리엔테이션(orientation)의 변화를 감지하는 등, 상기 터치 디바이스의 오리엔테이션에 관한 정보를 획득할 수 있다.
도 11은 상기 터치 디바이스(30)의 오리엔테이션의 변화를 설명하기 위한 도면이다. 도 11(a)는 상기 터치 디바이스(30)가 지표면에 수직인 상태를 나타내고, 도 11(b)는 상기 터치 디바이스(30)가 기울어진 상태를 나타내고, 도 11(c)는 상기 터치 디바이스(30)가 지표면에 수평인 상태를 나타낸다.
상기 센싱부(140)는, 다양한 방식으로 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득할 수 있다.
예를 들어 상기 센싱부(140)는, 상기 가속도 센서(142)를 이용하여, 상기 터치 디바이스(30)의 표면과 수직인 축을 중심으로 하는 상기 터치 디바이스(30)의 회전을 감지할 수 있다.
예를 들어 도 11을 참조하면, 사용자가 상기 이동 단말기(100)를 도 11(a)에서 도 11(c) 상태로 기울이면, 상기 제어부(180)는 상기 가속도 센서(142)를 통해 이를 감지하고 상기 터치 디바이스(30)가 수직 상태에서 수평 상태로 변화하였음을 인식할 수 있다.
또한 예를 들어 상기 센싱부(140)는, 상기 그랩 센서(141)를 이용하여, 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득할 수 있다.
도 12 및 도 13은 상기 그랩 센서(141)를 이용하여 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득하는 방식을 설명하기 위한 도면들이다.
예를 들어 도 12를 참조하면, 사용자는 오른손(33a)으로 상기 그랩 센서(141) 중 상기 제3 그랩 센서(141c)가 장착된 위치를 쥐고 있다. 상기 제어부(180)는, 상기 제3 그랩 센서(141c)로부터 신호를 전달받음으로써, 상기 터치 디바이스(30)의 오리엔테이션이 지표면에 대해 수직 상태임을 인식할 수 있다.
또한 예를 들어 도 13을 참조하면, 사용자는 오른손(33a)으로는 상기 제1 그랩 센서(33a)가 장착된 위치를 쥐고 왼손으로는 상기 제2 그랩 센서(33b)가 장착된 위치를 쥐고 있다. 상기 제어부(180)는, 상기 제1 및 제2 그랩 센서(33a, 33b)로부터 신호를 수신함으로써, 상기 터치 디바이스(30)의 오리엔테이션이 지표면에 대해 수평 상태임을 인식할 수 있다.
또한 예를 들어 상기 제어부(180)는, 상기 그랩 센서(141)와 상기 가속도 센서(142)를 모두 이용하여, 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득할 수 있다.
여기서 상기 제어부(180)는, 상기 그랩 센서(141)와 상기 가속도 센서(142) 중 어느 하나를 주요 수단으로 이용하고 나머지 하나를 보조 수단으로 이용하여 상기 오리엔테이션에 관한 정보를 획득할 수 있다.
또는 상기 제어부(180)는, 상기 그랩 센서(141)와 상기 가속도 센서(142)에 우선 순위를 두지 않고, 상황에 따라 어느 하나를 이용하여 상기 오리엔테이션에 관한 정보를 획득할 수 있다.
예를 들어, 상기 제어부(180)는, 상기 이동 단말기(100)가 도 11(b)의 상태에 있는 경우, 상기 가속도 센서(142)로부터 전달되는 정보만으로는 상기 오리엔테이션에 관한 정보를 정확하게 획득하지 못할 수 있다. 이때 상기 제어부(180)는, 상기 그랩 센서(141)로부터 전달되는 정보를 통해 상기 오리엔테이션에 관한 정보를 정확하게 획득할 수 있다.
상기 제어부(180)는, 상기 S103 단계에서 감지된 상기 오리엔테이션의 변화가 미리 정해진 기준에 포함되는지를 판단하고[S104], 상기 S104 단계의 판단 결과, 상기 오리엔테이션의 변화가 상기 미리 정해진 기준에 포함되는 경우, 상기 변화된 오리엔테이션을 고려하여 상기 표시 영역(15)과 상기 터치 영역(30)을 절대좌표계에 기반한 위치 대응이 이루어지도록 대응시킬 수 있다[S105].
예를 들어 도 11을 참조하면, 도 11(a)의 상태에서 도 11(b)의 상태로 변화 한 경우는 상기 미리 정해진 기준에 포함되지 않고, 도 11(a)의 상태에서 도 11(c)의 상태로 변화한 경우에 상기 미리 정해진 기준에 포함될 수 있다.
이하 개시되는 실시예들에서는, 상기 미리 정해진 기준은, 도 11(a) 또는 도 12와 같은 수직 상태와, 도 11(c) 또는 도 13과 같은 수평 상태인 것으로 가정한다. 상기 미리 정해진 기준이 상기 수직 상태 및 상기 수평 상태에 한정되는 것이 아님은 물론이다.
도 14는, 상기 터치 영역(30)과 상기 표시 영역(15)의 대응 관계의 다른 예를 설명하기 위한 도면이다. 도 14는 상기 터치 디바이스(30)의 오리엔테이션이 상기 수평 상태인 경우, 상기 터치 영역(30)과 상기 표시 영역(15)의 대응 관계를 나타낸다.
상기 이동 단말기(100)의 상기 제어부(180)는, 상기 터치 디바이스(30)의 오리엔테이션이 상기 수직 상태에서 상기 수평 상태로 변화한 경우, 도 14에 도시된 바와 같이, 상기 터치 영역(30)의 a, b, c 및 d 지점을 상기 표시 영역(15)의 B, C, D 및 A 지점에 각각 대응되도록, 상기 터치 영역(30)과 상기 표시 영역(15)을 1:1 매칭시킬 수 있다.
도 15는, 상기 터치 디바이스(30)의 오리엔테이션의 변화에 따라, 상기 DTV(10)의 제어 동작의 변화를 설명하기 위한 도면이다.
도 15(a)는 상기 터치 디바이스(30)의 오리엔테이션이 수직 상태임을 나타내고, 도 15(b)는 상기 터치 디바이스(30)의 오리엔테이션이 수평 상태임을 나타낸다.
그리고, 도 15(a)에 도시된 터치 지점(g)과 도 15(b)에 도시된 터치 지점(g)은, 각각 물리적으로 동일한 지점을 나타낸다.
사용자가 도 15(a)의 상태에서 손가락(32)으로 상기 터치 지점(g)을 터치한 경우, 상기 DTV(10)는 상기 터치 지점(g)에 대응되는 제1 지점(G1)에 상기 포인터(33)를 표시할 수 있다.
그리고 사용자가 도 15(b)의 상태에서 손가락(32)으로 상기 터치 지점(g)를 터치한 경우, 상기 DTV(10)는 상기 터치 지점(g)에 대응되는 제2 지점(G2)에 상기 포인터(33)를 표시할 수 있다.
즉 상기 이동 단말기(100)는, 상기 터치 디바이스(30)의 오리엔테이션이 변화함에 따라, 물리적으로 동일한 지점이더라도 상기 표시 영역(15)의 대응되는 지점에 관한 위치 정보를 자동으로 다르게 하여 상기 DTV(10)로 전송할 수 있다.
따라서 사용자는, 도 15에 도시된 바와 같이, 상기 이동 단말기(100) 또는 상기 터치 디바이스(30)의 현재 사용 중인 오리엔테이션에 대해, 상기 터치 영역(30)을 마치 상기 표시 영역(15)을 터치하는 것처럼 직관적인 방식으로 이용할 수 있다.
도 16 및 도 17은, 상기 터치 영역(30)과 상기 표시 영역(15)를 1:1로 매칭하는 방식을 구체적으로 설명하기 위한 도면들이다.
도 16 및 도 17에 도시된 상기 터치 영역(30)이 1,366*1,366의 resolution을 가지고, 상기 DTV(10)의 상기 표시 영역(15)이 1,366*1,080의 resolution을 가진다고 가정한다.
상기 터치 디바이스(30)의 오리엔테이션이 도 16과 같이 수직 상태인 경우, X축에 대해서는 1,366의 resolution을 갖도록 하고 Y축에 대해서는 1,080의 resolution을 갖도록 한다.
상기 터치 디바이스(30)의 오리엔테이션이 도 17과 같이 수평 상태인 경우, 도 16과 동일한 방식으로 상기 터치 영역(30)과 상기 표시 영역(15)을 1:1 매칭시킬 수 있다.
한편 상기 이동 단말기(100)의 상기 제어부(180)는, 상기 S100 단계를 수행함에 있어서, 상기 디스플레이부(30)의 상기 표시 영역의 크기 변화 또는 상기 표시 영역의 해상도 변화를 고려할 수 있다.
상기 DTV(10)는, 전술한 바와 같이, 상기 디스플레이부(15)의 전체 영역을 상기 표시 영역으로 설정하거나, 상기 디스플레이부(15)의 일부 영역을 상기 표시 영역으로 설정할 수 있다.
도 18 및 도 19는, 상기 디스플레이부(15)의 일부 영역이 표시 영역으로 설정된 경우를 설명하기 위한 도면들이다.
예를 들어, 상기 DTV(10)는, 사용자의 요청에 따라, 또는 콘텐츠의 해상도에 따라, 도 19에 도시된 바와 같이, 상기 디스플레이부(15)의 전체가 아닌 일부(50)를 상기 표시 영역으로 설정할 수 있다.
이와 같이, 상기 디스플레이부(15)의 전체가 아닌 일부가 상기 표시 영역(50)으로 설정된 경우, 상기 이동 단말기(100)의 상기 터치 영역(30)은, 상기 디 스플레이부(15)의 일부에 해당하는 상기 표시 영역(50)에 대응되도록 설정될 수 있다.
도 18을 참조하면, 상기 이동 단말기(100)의 상기 제어부(180)는, 상기 DTV(10)로부터 상기 디스플레이부(15)를 통해 표시되는 콘텐츠의 해상도에 관한 정보를 수신할 수 있다[S106].
상기 제어부(180)는, 상기 S106 단계에서 수신된 해상도 정보가, 기 저장된 해상도 정보로부터 변화된 것인지를 판단한다[S107].
예를 들어 도 19를 참조하면, 상기 DTV(10)는, 상기 디스플레이부(15)의 전체가 아닌 일부 영역을 상기 표시 영역(50)으로 하여 특정 콘텐츠를 출력하고 있다. 이때 상기 이동 단말기(100)는, 상기 DTV(10)로부터 상기 표시 영역(50)의 해상도 정보를 수신하고, 상기 수신된 해상도 정보가 상기 디스플레이부(15)의 전체 영역에 대응되는 해상도에서 변화되었음을 인식할 수 있다.
상기 제어부(180)는, 상기 S107 단계의 판단 결과, 상기 해상도 정보가 변화된 것인 경우, 상기 변화된 해상도를 고려하여 상기 표시 영역(50)과 상기 터치 영역(30)을 절대좌표계에 기반한 위치 대응이 이루어지도록 대응시킨다[S108].
예를 들어 도 19를 참조하면, 상기 제어부(180)는, 상기 터치 영역(30)의 a, b, c 및 d 지점을, 상기 표시 영역(50)의 H, I, J 및 K 지점에 각각 대응되도록 설정할 수 있다.
상기 개시된 실시예들은, 상기 DTV(10)의 상기 표시 영역에 표시되는 상기 포인터(30)의 위치를 제어하는 상황을 위주로 설명하였다. 그러나, 전술한 바와 같이, 상기 이동 단말기(100)의 상기 터치 디바이스(30)를 통해 수신된 터치 입력에 따라, 상기 DTV(10)는, 다른 기능들을 수행할 수 있다.
도 20은, 상기 DTV(10)에 표시된 아이콘을 제어하는 경우를 나타낸다. 도 20은, 상기 이동 단말기(100)의 상기 터치 디바이스(30)에 대한 터치 입력에 따라, 상기 DTV(10)에 표시된 아이콘과 관련된 기능을 실행하는 경우를 설명하기 위한 도면이다.
예를 들어 도 20을 참조하면, 상기 DTV(10)의 상기 제어부(20)는, 상기 디스플레이부(15)에 아이콘들을 표시할 수 있다.
사용자가 손가락(32)으로 상기 디스플레이부(15)에 표시된 아이콘들 중 특정 아이콘(51)이 표시된 지점과 대응되는, 상기 터치 디바이스(30)의 특정 지점(m)을 터치하면, 상기 DTV(100)는 상기 특정 아이콘(51)이 표시된 지점에 상기 포인터(33)를 위치시키고, 상기 특정 아이콘(51)을 선택하거나 실행할 수 있다.
전술한 바와 같이, 상기 이동 단말기(100)에서 상기 DTV(10)로 전송되는 상기 제어 정보에 상기 입력된 터치 신호의 세기에 관한 정보가 포함된 경우, 상기 터치 신호의 세기에 따라 상기 DTV(10)는, 상기 특정 아이콘(51)을 선택하거나 실행할 수 있다.
예를 들어, 상기 터치 신호의 세기가 기준값 미만인 경우, 상기 DTV(10)는, 상기 특정 아이콘(51)을 선택하고, 상기 터치 신호의 세기가 기준값 이상인 경우, 상기 DTV(10)는 상기 특정 아이콘(51)을 실행할 수 있다.
도 21은 본 발명의 제2 실시예에 따른 DTV의 제어 방법의 흐름도이다. 본 발명의 제2 실시예에 따른 DTV의 제어 방법은, 도 1 내지 도 5를 참조하여 설명한 상기 DTV(10) 및 상기 이동 단말기(100)에서 구현될 수 있다. 이하 도 21 및 필요한 도면들을 참조하여, 본 발명의 제2 실시예에 따른 DTV의 제어 방법과, 이를 구현하기 위한 상기 DTV(10) 및 상기 이동 단말기(100)의 동작을 상세히 설명하기로 한다.
상기 DTV(10)는, 콘텐츠를 출력한다[S200]. 상기 S200 단계는, 전술한 본 발명의 제1 실시예의 S140 단계와 동일하므로, 더 이상의 상세한 설명은 생략하기로 한다.
상기 DTV(10)는, 전술한 본 발명의 제1 실시예의 S100 단계와 마찬가지로, 절대좌표계에 기반한 위치 대응이 이루어지도록 상기 표시 영역(15)과 상기 터치 영역(30)을 대응시킨다[S210].
상기 DTV(10)의 상기 메모리(21)는, 상기 터치 영역(30)의 resolution에 관한 정보를 저장할 수 있다.
상기 DTV(10)는, 상기 메모리(21)에 저장된 상기 터치 영역(30)의 resolution에 관한 정보를 참조하여, 상기 S210 단계를 수행할 수 있다.
또한 상기 DTV(10)는, 상기 터치 디바이스(30)의 오리엔테이션을 고려하여, 상기 S210 단계를 수행할 수 있다. 예를 들어, 상기 DTV(10)의 상기 제어부(20)는, 상기 터치 디바이스(30)가 도 11(a)에 도시된 바와 같이 수직 상태인 것을 기준으 로 하여 상기 표시 영역(15)과 상기 터치 영역(30)을 대응시킬 수 있다.
또한 상기 DTV(10)는, 본 발명의 제1 실시예에 관한 설명에서 도 18 및 도 19를 참조하여 전술한 바와 같이, 상기 디스플레이부(15)를 통해 표시되는 콘텐츠의 해상도가 변화되는 경우 또는 설정에 따라 상기 디스플레이부(15)의 일부 영역을 표시 영역으로 하는 경우, 상기 콘텐츠의 해상도 또는 상기 일부 영역의 해상도를 고려하여 상기 S210 단계를 수행할 수 있다.
한편 상기 이동 단말기(100)는, 상기 터치 영역(30)에 포함되는 제1 지점에 대한 터치를 수신한다[S220].
그리고 상기 이동 단말기(100)는, 전술한 본 발명의 제1 실시예의 S111 단계와 마찬가지로, 상기 제1 지점에 대한 터치를 수신함에 따라, 상기 햅틱 모듈(150)을 제어하여 진동을 발생시킬 수 있다.
상기 이동 단말기(100)는, 상기 센싱부(140)를 제어하여 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득할 수 있다[S230]. 상기 이동 단말기(100)가 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득하는 방식은, 전술한 본 발명의 제1 실시예와 동일하다.
상기 이동 단말기(100)는, 상기 제1 지점에 관한 위치 정보와 상기 획득된 오리엔테이션에 관한 정보를 포함하는 제어 정보를 상기 DTV(10)로 전송한다[S240].
상기 이동 단말기(100)에서 상기 DTV(10)로 전송되는 상기 제어 정보는, 전술한 본 발명의 제1 실시예에서 설명한 바와 마찬가지로, 상기 제1 지점에 대한 터 치의 세기에 관한 정보를 포함할 수도 있다.
상기 DTV(10)는, 상기 이동 단말기(100)로부터 상기 제어 정보를 수신한다.
그리고 상기 DTV(10)는, 상기 수신된 제어 정보에 포함된 상기 터치 디바이스(30)의 오리엔테이션이 현재 기준이 되는 오리엔테이션과 일치하는지를 판단할 수 있다[S250].
상기 DTV(10)는, 상기 S250 단계의 판단 결과, 상기 수신된 오리엔테이션이 상기 기준 오리엔테이션과 일치하지 않는 경우, 상기 S210 단계로 회귀한다. 그리고 상기 DTV(10)는, 상기 수신된 오리엔테이션을 고려하여 상기 S210 단계를 재수행하여, 상기 터치 디바이스(30)의 현재 오리엔테이션을 반영하도록 상기 터치 영역(30)과 상기 표시 영역(15)을 1:1 매칭시킨다.
그리고 상기 DTV(10)는, 상기 터치 영역(30)과 상기 표시 영역(15)의 위치 대응 관계에 따라, 상기 수신된 제어 정보에 포함된 상기 제1 지점에 대응되는 상기 표시 영역(15)의 제2 지점에 관한 위치 정보를 획득할 수 있다[S260].
그리고 상기 DTV(10)는, 상기 제2 지점과 관련된 기능을 수행할 수 있다[S270]. 상기 S270 단계는, 전술한 본 발명의 제1 실시예의 상기 S150 단계와 동일하므로, 더 이상의 상세한 설명은 생략하기로 한다.
상기에서 설명한 본 발명에 의한 DTV의 제어 방법 또는 전자 기기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.
본 발명에 의한 DTV의 제어 방법 또는 전자 기기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
도 1은 본 발명이 적용되는 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 DTV(10)의 블록 구성도이다.
도 3은 본 발명의 실시예에 따른 이동 단말기(100)의 외관의 예를 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 이동 단말기(100)의 블록 구성도이다.
도 5는 상기 이동 단말기(100)의 예로서 휴대폰의 외관의 예를 도시한다.
도 6은 본 발명의 제1 실시예에 따른 DTV의 제어 방법의 흐름도이다.
도 7은 상기 표시 영역과 상기 터치 영역을 대응시키는 예를 도시한다.
도 8은 상기 터치 영역과 상기 표시 영역의 1:1 대응 관계를 설명하기 위한 도면이다.
도 9는 상기 표시 영역에 표시되는 포인터를 제어하는 다른 예를 도시한 도면이다.
도 10은, 상기 터치 디바이스(30)의 오리엔테이션을 고려하여 수행되는 상기 S100 단계의 세부 흐름도이다.
도 11은 상기 터치 디바이스(30)의 오리엔테이션의 변화를 설명하기 위한 도면이다.
도 12 및 도 13은 상기 그랩 센서(141)를 이용하여 상기 터치 디바이스(30)의 오리엔테이션에 관한 정보를 획득하는 방식을 설명하기 위한 도면들이다.
도 14는, 상기 터치 영역(30)과 상기 표시 영역(15)의 대응 관계의 다른 예 를 설명하기 위한 도면이다.
도 15는, 상기 터치 디바이스(30)의 오리엔테이션의 변화에 따라, 상기 DTV(10)의 제어 동작의 변화를 설명하기 위한 도면이다.
도 16 및 도 17은, 상기 터치 영역(30)과 상기 표시 영역(15)를 1:1로 매칭하는 방식을 구체적으로 설명하기 위한 도면들이다.
도 18 및 도 19는, 상기 디스플레이부(15)의 일부 영역이 표시 영역으로 설정된 경우를 설명하기 위한 도면들이다.
도 20은, 상기 DTV(10)에 표시된 아이콘을 제어하는 경우를 나타낸다.
도 21은 본 발명의 제2 실시예에 따른 DTV의 제어 방법의 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
10: DTV(전자 기기) 15: 디스플레이부(표시 영역)
100: 이동 단말기 30: 터치 디바이스(터치 영역)

Claims (27)

  1. 디스플레이부를 포함하는 전자 기기(electronic device)와 통신 가능한 이동 단말기에 있어서,
    터치 스크린(touch screen);
    상기 전자 기기와 통신하기 위한 통신부;
    상기 이동 단말기의 회전을 센싱하는 센싱부; 및
    상기 터치 스크린에 디스플레이되는 화면 정보를 상기 통신부를 통하여 상기 전자 기기로 전송하는 제어부;를 포함하고,
    상기 제어부는,
    상기 이동 단말기가 수평 상태인 것으로 판단되면, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제1 영역에 디스플레이하고, 상기 이동 단말기가 수직 상태인 것으로 판단되면, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제2 영역에 디스플레이하고,
    상기 이동 단말기가 상기 수평 상태에서 상기 터치 스크린의 일 지점에 대한 터치가 이루어지면, 상기 제1 영역 중 제1 지점에 인디케이터(indicator)를 디스플레이하고, 상기 이동 단말기가 상기 수직 상태에서 상기 일 지점에 대한 터치가 이루어지면, 상기 제2 영역 중 상기 제1 지점과 상이한 제2 지점에 상기 인디케이터를 디스플레이하는 것을 특징으로 하는 이동 단말기.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 제1항에 있어서,
    상기 제1 영역은 상기 디스플레이부의 전체 영역이고,
    상기 제2 영역은 상기 디스플레이부의 일부 영역인 것을 특징으로 하는 이동 단말기.
  14. 제13항에 있어서,
    상기 디스플레이부는,
    각각 동일한 너비를 포함하는 좌측, 중심, 및 우측 영역으로 구분되고,
    상기 제2 영역은,
    상기 중심 영역인 것을 특징으로 하는 이동 단말기.
  15. 제1항에 있어서,
    상기 제어부는,
    상기 터치 스크린의 전체 영역과 상기 디스플레이부의 상기 제1 영역 또는 상기 제2 영역 중 어느 하나를 대응시키는 것을 특징으로 하는 이동 단말기.
  16. 제15항에 있어서,
    상기 제어부는,
    상기 일 지점에 대한 터치가 이루어지면, 상기 일 지점에 대한 위치 정보를 생성하고,
    상기 생성된 위치 정보를 상기 통신부를 통하여 상기 전자 기기로 전송하는 것을 특징으로 하는 이동 단말기.
  17. 제16항에 있어서,
    상기 제어부는,
    상기 제1 영역 또는 상기 제2 영역 중 상기 일 지점에 대응되는 지점에 상기 인디케이터를 디스플레이하고,
    상기 인디케이터는,
    커서(cursor) 또는 포인터(pointer) 중 어느 하나인 것을 특징으로 하는 이동 단말기.
  18. 제16항에 있어서,
    상기 제어부는,
    상기 일 지점에 대한 터치의 세기(intensity) 정보를 생성하고,
    상기 생성된 세기 정보를 상기 통신부를 통하여 상기 전자 기기로 전송하는 것을 특징으로 하는 이동 단말기.
  19. 제18항에 있어서,
    상기 제어부는,
    상기 터치 스크린에 디스플레이된 아이템에 대한 상기 세기 정보가 기 설정된 값 미만이면, 상기 아이템을 선택하고,
    상기 아이템에 대한 상기 세기 정보가 기 설정된 값 이상이면, 상기 아이템을 실행하는 것을 특징으로 하는 이동 단말기.
  20. 제15항에 있어서,
    상기 제어부는,
    상기 터치 스크린 또는 상기 디스플레이부의 해상도에 기반하여, 상기 터치 스크린의 전체 영역과 상기 디스플레이부의 상기 제1 영역 또는 상기 제2 영역 중 어느 하나를 대응시키는 것을 특징으로 하는 이동 단말기.
  21. 제16항에 있어서,
    상기 제어부는,
    리모컨(Remote Controller) 어플리케이션을 실행하는 것을 특징으로 하는 이동 단말기.
  22. 터치 스크린(touch screen)을 포함하는 이동 단말기와 통신 가능한 전자 기기에 있어서,
    디스플레이부;
    상기 이동 단말기와 통신하기 위한 통신부; 및
    상기 터치 스크린에 디스플레이되는 화면 정보를 상기 통신부를 통하여 상기 이동 단말기로부터 수신하는 제어부;를 포함하고,
    상기 제어부는,
    상기 이동 단말기가 수평 상태인 경우, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제1 영역에 디스플레이하고, 상기 이동 단말기가 수직 상태인 경우, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제2 영역에 디스플레이하고,
    상기 이동 단말기가 상기 수평 상태에서 상기 터치 스크린의 일 지점에 대한 터치가 이루어지면, 상기 제1 영역 중 제1 지점에 인디케이터(indicator)를 디스플레이하고, 상기 이동 단말기가 상기 수직 상태에서 상기 일 지점에 대한 터치가 이루어지면, 상기 제2 영역 중 상기 제1 지점과 상이한 제2 지점에 상기 인디케이터를 디스플레이하는 것을 특징으로 하는 전자 기기.
  23. 디스플레이부를 포함하는 전자 기기 및 상기 전자 기기와 통신 가능한 이동 단말기를 포함하는 제어 시스템에 있어서,
    상기 이동 단말기는,
    터치 스크린(touch screen);
    상기 전자 기기와 통신하기 위한 통신부;
    상기 이동 단말기의 회전을 센싱하는 센싱부; 및
    상기 터치 스크린에 디스플레이되는 화면 정보를 상기 통신부를 통하여 상기 전자 기기로 전송하는 제어부;를 포함하고,
    상기 제어부는,
    상기 이동 단말기가 수평 상태인 것으로 판단되면, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제1 영역에 디스플레이하고, 상기 이동 단말기가 수직 상태인 것으로 판단되면, 상기 터치 스크린에 디스플레이되는 화면을 상기 디스플레이부의 제2 영역에 디스플레이하고,
    상기 이동 단말기가 상기 수평 상태에서 상기 터치 스크린의 일 지점에 대한 터치가 이루어지면, 상기 제1 영역 중 제1 지점에 인디케이터(indicator)를 디스플레이하고, 상기 이동 단말기가 상기 수직 상태에서 상기 일 지점에 대한 터치가 이루어지면, 상기 제2 영역 중 상기 제1 지점과 상이한 제2 지점에 상기 인디케이터를 디스플레이하는 것을 특징으로 하는 제어 시스템.
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
KR1020090118974A 2009-12-03 2009-12-03 이동 단말기, 전자 기기 및 전자 기기의 제어 방법 KR101670352B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090118974A KR101670352B1 (ko) 2009-12-03 2009-12-03 이동 단말기, 전자 기기 및 전자 기기의 제어 방법
US12/959,118 US9223493B2 (en) 2009-12-03 2010-12-02 Mobile terminal, electronic device and method of controlling the same
US14/968,440 US9965058B2 (en) 2009-12-03 2015-12-14 Mobile terminal, electronic device and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090118974A KR101670352B1 (ko) 2009-12-03 2009-12-03 이동 단말기, 전자 기기 및 전자 기기의 제어 방법

Publications (2)

Publication Number Publication Date
KR20110062296A KR20110062296A (ko) 2011-06-10
KR101670352B1 true KR101670352B1 (ko) 2016-10-28

Family

ID=44081535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090118974A KR101670352B1 (ko) 2009-12-03 2009-12-03 이동 단말기, 전자 기기 및 전자 기기의 제어 방법

Country Status (2)

Country Link
US (2) US9223493B2 (ko)
KR (1) KR101670352B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11106325B2 (en) 2018-01-31 2021-08-31 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11403973B2 (en) 2020-01-06 2022-08-02 Samsung Electronics Co., Ltd. Display apparatus
US11796124B2 (en) 2020-01-06 2023-10-24 Samsung Electronics Co., Ltd. Display apparatus

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
US20120050183A1 (en) 2010-08-27 2012-03-01 Google Inc. Switching display modes based on connection state
US8446363B1 (en) * 2010-12-30 2013-05-21 Google Inc. Enhanced input using touch screen
JP5845585B2 (ja) * 2011-02-04 2016-01-20 セイコーエプソン株式会社 情報処理装置
KR101820933B1 (ko) * 2011-08-10 2018-01-23 주식회사 케이티 단말 및 그의 이벤트 기록 방법
KR101325026B1 (ko) * 2011-09-24 2013-11-08 주식회사 인프라웨어테크놀러지 스마트 단말을 이용한 안드로이드 플랫폼 기반의 애플리케이션 실행 단말 제어방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
KR20130054579A (ko) * 2011-11-17 2013-05-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8908894B2 (en) 2011-12-01 2014-12-09 At&T Intellectual Property I, L.P. Devices and methods for transferring data through a human body
US8638190B1 (en) 2012-02-02 2014-01-28 Google Inc. Gesture detection using an array of short-range communication devices
US9381427B2 (en) * 2012-06-01 2016-07-05 Microsoft Technology Licensing, Llc Generic companion-messaging between media platforms
US9798457B2 (en) 2012-06-01 2017-10-24 Microsoft Technology Licensing, Llc Synchronization of media interactions using context
JP5905783B2 (ja) * 2012-06-28 2016-04-20 シャープ株式会社 画像表示システム
KR101899816B1 (ko) * 2012-07-26 2018-09-20 엘지전자 주식회사 단말 장치 및 이의 필기 공유 방법
KR101936075B1 (ko) * 2012-09-21 2019-01-08 삼성전자주식회사 이동통신 단말기를 이용한 디스플레이 장치의 데이터 표시 방법 및 상기 장치들
EP2917823B1 (en) * 2012-11-09 2019-02-06 Microsoft Technology Licensing, LLC Portable device and control method thereof
KR102101432B1 (ko) * 2013-01-31 2020-04-16 삼성전자주식회사 포인터 표시 제어 방법 및 포인터 표시 방법과 그 방법이 적용되는 장치
US20140250384A1 (en) * 2013-03-01 2014-09-04 Microsoft Corporation Remotely Navigating A Display of a Target Computing Device Using A Screen of a Source Computing Device
JP2014222840A (ja) * 2013-05-14 2014-11-27 船井電機株式会社 映像表示装置の遠隔操作方法及び遠隔操作システム
JP6155871B2 (ja) 2013-06-11 2017-07-05 株式会社リコー 情報処理システム、装置、方法、及びプログラム
US10108984B2 (en) 2013-10-29 2018-10-23 At&T Intellectual Property I, L.P. Detecting body language via bone conduction
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
US9349280B2 (en) 2013-11-18 2016-05-24 At&T Intellectual Property I, L.P. Disrupting bone conduction signals
US10678322B2 (en) 2013-11-18 2020-06-09 At&T Intellectual Property I, L.P. Pressure sensing via bone conduction
US9715774B2 (en) 2013-11-19 2017-07-25 At&T Intellectual Property I, L.P. Authenticating a user on behalf of another user based upon a unique body signature determined through bone conduction signals
US9405892B2 (en) 2013-11-26 2016-08-02 At&T Intellectual Property I, L.P. Preventing spoofing attacks for bone conduction applications
KR102161677B1 (ko) * 2014-01-03 2020-10-05 삼성전자주식회사 원격 제어 장치 및 그의 제어 방법
JP5671768B1 (ja) * 2014-01-28 2015-02-18 ネイロ株式会社 携帯端末、携帯端末の制御方法、プログラム
US20160026309A1 (en) * 2014-07-25 2016-01-28 Hannstar Display (Nanjing) Corporation Controller
CN105302386A (zh) * 2014-07-25 2016-02-03 南京瀚宇彩欣科技有限责任公司 无挡触控的手持式电子装置及其触控外盖
CN105278774A (zh) * 2014-07-25 2016-01-27 南京瀚宇彩欣科技有限责任公司 无挡触控的手持式电子装置及其触控外盖
CN105320418A (zh) * 2014-07-25 2016-02-10 南京瀚宇彩欣科技有限责任公司 手持式电子装置、触控外盖及计算机执行的方法
US9882992B2 (en) 2014-09-10 2018-01-30 At&T Intellectual Property I, L.P. Data session handoff using bone conduction
US9589482B2 (en) 2014-09-10 2017-03-07 At&T Intellectual Property I, L.P. Bone conduction tags
US9582071B2 (en) 2014-09-10 2017-02-28 At&T Intellectual Property I, L.P. Device hold determination using bone conduction
US10045732B2 (en) 2014-09-10 2018-08-14 At&T Intellectual Property I, L.P. Measuring muscle exertion using bone conduction
US9600079B2 (en) 2014-10-15 2017-03-21 At&T Intellectual Property I, L.P. Surface determination via bone conduction
US9727231B2 (en) 2014-11-19 2017-08-08 Honda Motor Co., Ltd. System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen
US20170371515A1 (en) 2014-11-19 2017-12-28 Honda Motor Co., Ltd. System and method for providing absolute and zone coordinate mapping with graphic animations
US10372212B2 (en) 2015-05-29 2019-08-06 Google Llc Techniques for simulated physical interaction between users via their mobile computing devices
US10852913B2 (en) * 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
US10585637B2 (en) * 2017-03-27 2020-03-10 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device
US10831316B2 (en) 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
US11349976B2 (en) * 2019-09-12 2022-05-31 Lenovo (Beijing) Co., Ltd. Information processing method, file transmission method, electronic apparatus, and computing apparatus
CN111221422A (zh) * 2020-02-26 2020-06-02 原点显示(深圳)科技有限公司 触控翻转方法及具有触控翻转功能的显示屏
KR20230034656A (ko) * 2021-09-03 2023-03-10 삼성전자주식회사 리모컨 및 그 리모컨의 키를 설정하는 디스플레이 장치와 그 방법들
US11809677B2 (en) * 2021-12-28 2023-11-07 Peer Inc System and method for enabling control of cursor movement on an associated large screen using dynamic grid density of an associated mobile device
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168514A1 (en) * 2007-01-04 2008-07-10 Samsung Electronics Co., Ltd Method of searching internet and video receiving apparatus to use the same
WO2009006224A1 (en) * 2007-06-28 2009-01-08 Panasonic Corporation Touchpad-enabled remote controller and user interaction methods

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157284A (ja) * 1999-11-25 2001-06-08 Hitachi Ltd リモートコントローラ、制御対象機器および制御システム
US6912664B2 (en) * 2002-02-21 2005-06-28 Hewlett-Packard Development Company, L.P. Energy-aware software-controlled plurality of displays
KR100608576B1 (ko) 2004-11-19 2006-08-03 삼성전자주식회사 휴대 단말기 제어 장치 및 방법
KR101470413B1 (ko) * 2007-09-20 2014-12-10 삼성전자주식회사 사용자 명령 입력 방법 및 이를 적용한 영상기기와입력기기
US10983665B2 (en) * 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US20100070995A1 (en) * 2008-09-15 2010-03-18 Yang Pan System and method of rendering advertisements by employing switching-on screen of television
US9014685B2 (en) * 2009-06-12 2015-04-21 Microsoft Technology Licensing, Llc Mobile device which automatically determines operating mode

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168514A1 (en) * 2007-01-04 2008-07-10 Samsung Electronics Co., Ltd Method of searching internet and video receiving apparatus to use the same
WO2009006224A1 (en) * 2007-06-28 2009-01-08 Panasonic Corporation Touchpad-enabled remote controller and user interaction methods

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11106325B2 (en) 2018-01-31 2021-08-31 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11403973B2 (en) 2020-01-06 2022-08-02 Samsung Electronics Co., Ltd. Display apparatus
US11705024B2 (en) 2020-01-06 2023-07-18 Samsung Electronics Co., Ltd Display apparatus
US11796124B2 (en) 2020-01-06 2023-10-24 Samsung Electronics Co., Ltd. Display apparatus
US11996016B2 (en) 2020-01-06 2024-05-28 Samsung Electronics Co., Ltd. Display apparatus

Also Published As

Publication number Publication date
US9223493B2 (en) 2015-12-29
US9965058B2 (en) 2018-05-08
KR20110062296A (ko) 2011-06-10
US20160098099A1 (en) 2016-04-07
US20110134030A1 (en) 2011-06-09

Similar Documents

Publication Publication Date Title
KR101670352B1 (ko) 이동 단말기, 전자 기기 및 전자 기기의 제어 방법
EP2521370B1 (en) Remote controller and image display apparatus controllable by remote controller
KR101789619B1 (ko) 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치
US20180309951A1 (en) Broadcast receiving apparatus and control method thereof
CN108762702B (zh) 移动终端、图像显示装置及使用其的用户接口提供方法
KR101711828B1 (ko) 영상표시장치 및 그 동작방법
US9538245B2 (en) Media system and method of providing recommended search term corresponding to an image
US9715287B2 (en) Image display apparatus and method for operating the same
US9271027B2 (en) Image display apparatus and method for operating the same
US20100302151A1 (en) Image display device and operation method therefor
KR101890624B1 (ko) 터치패드를 구비한 리모트 컨트롤러 및 그 제어 방법
KR20110135707A (ko) 원격제어장치 및 그 동작 제어방법
KR20130130453A (ko) 영상표시장치 및 그 동작 방법
KR20150041970A (ko) 디스플레이 장치 및 그 방법
KR101864276B1 (ko) 휴대 단말기의 동작 방법
KR101860918B1 (ko) 영상표시장치 및 그 동작방법
US8952905B2 (en) Image display apparatus and method for operating the same
KR20150008769A (ko) 영상표시장치 및 그 동작방법
KR101545904B1 (ko) 영상표시장치 및 그 동작방법
KR102121535B1 (ko) 전자 장치, 보조 장치 및 전자 장치의 동작 방법
KR101799271B1 (ko) 원격제어장치를 이용한 멀티미디어 장치의 조작방법 및 그에 따른 멀티미디어 장치
JP4766073B2 (ja) 情報処理装置および情報処理方法
KR101772288B1 (ko) 디스플레이 장치 및 그의 동작 방법
KR20140000928A (ko) 영상표시장치 및 영상표시장치의 화면표시방법
KR101828399B1 (ko) 영상표시장치 및 휴대 단말기의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant