KR20130086574A - 프로젝터를 포함하는 전자 장치 및 그 제어 방법 - Google Patents

프로젝터를 포함하는 전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20130086574A
KR20130086574A KR1020130033598A KR20130033598A KR20130086574A KR 20130086574 A KR20130086574 A KR 20130086574A KR 1020130033598 A KR1020130033598 A KR 1020130033598A KR 20130033598 A KR20130033598 A KR 20130033598A KR 20130086574 A KR20130086574 A KR 20130086574A
Authority
KR
South Korea
Prior art keywords
pointer
gesture
touch screen
module
application
Prior art date
Application number
KR1020130033598A
Other languages
English (en)
Other versions
KR102097452B1 (ko
Inventor
안토니 자크비악
파벨 즈보로브스키
애덤 스트럽처브스키
매그더 탈라렉
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130033598A priority Critical patent/KR102097452B1/ko
Publication of KR20130086574A publication Critical patent/KR20130086574A/ko
Priority to US14/152,238 priority patent/US9569065B2/en
Priority to EP14160415.7A priority patent/EP2784655B1/en
Priority to CN201410116651.7A priority patent/CN104077074A/zh
Application granted granted Critical
Publication of KR102097452B1 publication Critical patent/KR102097452B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/54Details of telephonic subscriber devices including functional features of a projector or beamer module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

어플리케이션을 실행하여 표시하는 전자 장치의 제어 방법이 개시된다. 본 발명에 의한 제어 방법은, 어플리케이션의 실행 화면을 터치스크린에 표시하는 단계, 상기 어플리케이션의 실행 화면에 대응하는 투사 이미지를 투사하여 표시하는 단계, 상기 투사 이미지상에 포인터(pointer)를 표시하는 단계, 및 상기 터치스크린에서 감지되는 제스처에 대응하여 상기 포인터를 이동시켜 표시하는 단계를 포함한다.

Description

프로젝터를 포함하는 전자 장치 및 그 제어 방법 { ELECTRO DEVICE COMPRISING PROJECTOR AND METHOD FOR CONTROLLING THEREOF }
본 발명은 프로젝터를 포함하는 전자 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 렌더링(rendering)한 화면을 전자 장치의 화면에 표시하거나 또는 프로젝터로 투사하여 표시하는 전자 장치 및 그 제어 방법에 관한 것이다.
근자에 들어서 스마트 폰 또는 태블릿 PC가 소비자들에게 큰 인기를 얻고 있다. 아울러, 스마트 폰 또는 태블릿 PC를 이용하는 어플리케이션의 개발도 활발하게 진행되고 있다. 스마트 폰 또는 태블릿 PC는 주로 터치스크린을 포함하고 있으며, 사용자는 터치스크린에 소정의 제스처를 입력함으로써 스마트 폰 또는 태블릿 PC를 조작할 수 있다.
다만, 스마트 폰 또는 태블릿 PC는 휴대성을 강조하며, 이에 따라서 스마트 폰 또는 태블릿 PC가 포함하는 터치스크린의 크기는 필연적으로 제한될 수밖에 없다. 특히, 사용자가 스마트 폰 또는 태블릿 PC를 이용하여 동영상 또는 사진을 감상하고자 하는 경우, 크기가 제한된 터치스크린으로 인해 감상에 어려움을 가지는 문제점이 발생한다.
이에 따라서, 종래의 스마트 폰 또는 태블릿 PC는 프로젝터 모듈을 이용하여, 화면상에 표시되는 이미지를 투사하여 표시할 수 있다. 사용자는, 제한된 크기의 터치스크린이 아닌 투사된 이미지를 감상함으로써, 이미지를 더욱 실감나게 감상할 수 있다.
다만, 사용자가 특정 명령을 입력하고자 하는 경우, 사용자는 터치스크린에 특정 제스처를 입력한다. 즉, 사용자는 터치스크린을 응시하면서 특정 제스처를 입력하여야 하며, 이러한 과정을 투사된 이미지로써 확인할 수는 없다. 사용자가 입력하는 제스처는 손 또는 스타일러스 펜에 의한 것이며, 종래의 스마트 폰 또는 태블릿 PC가 손 또는 스타일러스 펜의 위치를 터치스크린에 표시하지는 않기 때문이다. 스마트 폰 또는 태블릿 PC는 단순히 렌더링된 데이터만을 투사하여 표시할 뿐, 사용자가 물리적으로 터치스크린에 입력하는 제스처에 대하여서는 투사하여 표시할 수 없다.
이에 따라, 사용자가 투사되는 이미지를 응시하면서도 용이하게 스마트 폰 또는 태블릿 PC를 조작할 수 있는 기술의 개발이 요구된다.
본 발명은 터치스크린에서 감지되는 제스처에 대응하는 포인터를 투사되는 이미지에 추가하여 표시하는 프로젝터를 포함하는 전자 장치 및 그 제어 방법을 제공한다.
상술한 바를 달성하기 위하여, 본 발명의 일 실시 예에 의한 어플리케이션을 실행하여 표시하는 전자 장치의 제어 방법은, 어플리케이션의 실행 화면을 터치스크린에 표시하는 단계, 상기 어플리케이션의 실행 화면에 대응하는 투사 이미지를 투사하여 표시하는 단계, 상기 투사 이미지상에 포인터(pointer)를 표시하는 단계 및 상기 터치스크린에서 감지되는 제스처에 대응하여 상기 포인터를 이동시켜 표시하는 단계를 포함할 수 있다.
아울러, 본 발명의 다른 측면에 의한 전자 장치는, 어플리케이션의 실행 화면을 표시하는 터치스크린, 상기 어플리케이션의 실행 화면에 대응하는 투사 이미지를 투사하여 표시하는 프로젝트 모듈 및 상기 투사 이미지상에 포인터(pointer)를 표시하고, 상기 터치스크린에서 감지되는 제스처에 대응하여 상기 포인터를 이동시켜 표시하도록 제어하는 제어부를 포함할 수 있다.
본 발명의 다양한 실시 예들에 의하여 터치스크린에서 감지되는 제스처에 대응하는 포인터를 투사되는 이미지에 추가하여 표시하는 프로젝터를 포함하는 전자 장치 및 그 제어 방법이 제공될 수 있다.
이에 따라, 사용자는 투사되는 이미지를 응시하면서도 용이하게 스마트 폰 또는 태블릿 PC를 조작할 수 있어, 사용자 편의가 극대화될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 장치를 나타내는 개략적인 블록도이다.
도 2는 본 발명의 일 실시 예에 의한 프로젝트 모듈을 포함하는 전자 장치의 제어 방법의 흐름도이다.
도 3a 내지 3i는 본 발명의 다양한 실시 예들에 의한 전자 장치의 개념도들이다.
도 4a 및 4b는 본 발명의 다양한 실시 예들에 의한 전자 장치의 제어 방법을 설명하기 위한 흐름도들이다.
도 5는 본 발명의 다른 실시 예에 의한 전자 장치의 제어 방법을 설명하는 흐름도이다.
도 6a 및 6b는 본 발명의 일 실시 예에 의한 전자 장치의 개념도들이다.
도 7a 및 7b는 본 발명의 다양한 실시 예들에 의한 전자 장치의 제어 방법을 설명하는 흐름도들이다.
도 8a 및 8b는 본 발명의 다양한 실시 예에 따른 전자 장치의 개념도들이다.
도 9는 본 발명의 다른 실시 예에 의한 전자 장치의 제어 방법을 설명하는 흐름도이다.
도 1은 본 발명의 일 실시 예에 따른 장치를 나타내는 개략적인 블록도이다.
도 1을 참조하면, 전자 장치(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 아니함)와 연결될 수 있다. “외부장치”는 다른 장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 서버(도시되지 아니함)를 포함한다.
도 1을 참조하면, 전자 장치(100)는 터치스크린(190) 및 터치스크린 컨트롤러(195)를 포함한다. 또한, 전자 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함한다.
제어부(110)는 CPU(111), 전자 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 전자 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 전자 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 전자 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 AP(access point)(도시되지 아니함)를 통해 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 전자 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 등이 포함될 수 있다.
전자 장치(100)는 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자 장치(100)는 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)는 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수 있다. 제1 카메라(151)는 상기 전자 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 전자 장치(100)의 후면에 배치될 수 있다. 달리 취한 방식으로, 제1 카메라(151)와 제2 카메라(152)는 인접(예, 제1 카메라(151)와 제2 카메라(152)의 간격이 1 cm 보다 크고, 8 cm 보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 전자 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 전자 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 전자 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 전자 장치(100) 외부로 출력할 수 있다. 스피커(163)는 전자 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 전자 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 전자 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190)을 터치하는 사용자의 터치 동작 및 터치스크린(190)에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 전자 장치(100)와 외부장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 전자 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 전자 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 전자 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 전자 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
센서 모듈(170)은 전자 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 전자 장치(100)에 대한 접근여부를 검출하는 근접센서, 전자 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 전자 장치(100)의 동작(예, 전자 장치(100)의 회전, 전자 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 지자기 센서 및 가속도 센서와 같은 모션센서(도시되지 아니함)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 전자 장치(100)의 구현에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 전자 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 전자 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
프로젝트 모듈(177)은 렌더링된 이미지를 투사하여 표시할 수 있다. 예를 들어, 프로젝트 모듈(177)은 투사에 사용될 광을 방출하는 광원과, 광원으로부터 입사되는 광을 이미지 신호에 따라 변조하는 광변조부와, 광변조부로부터 입사되는 광을 스크린에 투사하는 렌즈부를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 전자 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 전자 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 전자 장치(100)로 공급할 수 있다.
터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 감지할 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 터치의 연속적인 움직임을 감지할 수 있다. 터치스크린(190)은 감지되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격)을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 전자 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치스크린(190)은 예를 들어, 제 1 터치 패널(190a) 및 제 2 터치 패널(190b)을 포함할 수 있다. 여기에서 제 1 터치 패널(190a)은 사용자 신체 일부의 터치 또는 근접을 측정할 수 있다. 예를 들어, 제 1 터치 패널(190a)은 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 제 2 터치 패널(190b)은 스타일러스 펜과 같은 장치의 터치 또는 근접을 측정할 수 있다. 예를 들어, 제 2 터치 패널(190b)은 EMR(electromagnetic resonance) 측정 방식으로 구현될 수 있다.
터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다. 터치스크린 컨트롤러(195)는 예를 들어 제 1 터치 패널(190a)을 제어하는 제 1 터치 패널 컨트롤러(195a) 및 제 2 터치 패널(190b)을 제어하는 제 2 터치 패널 컨트롤러(195b)를 포함할 수 있다.
한편, 제어부(110)는 상기 터치 스크린(190)뿐만 아니라 카메라 모듈(150), 입/출력 모듈(160), 및 센서모듈(170) 등을 통해 수신되는 다양한 사용자 입력을 검출할 수 있다. 상기 사용자 입력은 터치뿐만 아니라, 사용자의 제스처(gesture), 음성, 눈동자 움직임, 생체신호 등 상기 장치(100) 내로 입력되는 다양한 형태의 정보를 포함할 수 있다. 제어부(110)는 검출된 사용자 입력에 대응하는 미리 정해진 동작 또는 기능을 수행하도록 전자 장치(100) 전반을 제어할 수 있다.
도 2는 본 발명의 일 실시 예에 의한 프로젝트 모듈을 포함하는 전자 장치의 제어 방법의 흐름도이다. 도 2의 제어 방법은 도 3a 내지 3i를 참조하여 더욱 상세하게 설명하도록 한다. 도 3a 내지 3i는 본 발명의 다양한 실시 예들에 의한 전자 장치의 개념도들이다.
전자 장치는 어플리케이션을 실행하여 표시할 수 있다(S201). 예를 들어, 도 3a에서와 같이, 프로젝트 모듈(177)을 포함하는 전자 장치(100)는 터치스크린(190)에 런처 어플리케이션(launcher application)을 표시할 수 있다. 런처 어플리케이션은 전자 장치(100)에 설치된 어플리케이션을 나타내는 아이콘들(301,302,303,304)을 터치스크린(190)에 표시할 수 있다. 사용자(10)는 런처 어플리케이션에 표시된 아이콘들(301,302,303,304) 중 하나인 지도 어플리케이션 아이콘(301)를 선택할 수 있다. 도 3a의 실시 예에서, 사용자(10)는 손가락과 같은 신체 일부를 이용하여 지도 어플리케이션 아이콘(301)을 터치하는 제스처를 입력하여 어플리케이션을 실행하는 것과 같이 도시되었지만 이는 단순히 예시이다. 예를 들어, 사용자(10)는 스타일러스 펜과 같은 좌표 지정 장치를 이용하여 지도 어플리케이션 아이콘(301)을 선택할 수 있다. 또는 사용자(10)는 터치 제스처 이외의 다양한 제스처를 입력함으로써 지도 어플리케이션 아이콘(301)을 선택할 수 있다. 어플리케이션을 실행하는 방법은 용이하게 변경 실시될 수 있으며, 어플리케이션을 실행하는 방법에 의하여 본 발명의 권리범위가 제한되지 않음을 당업자는 용이하게 이해할 수 있을 것이다.
한편, 제어부(110)는 어플리케이션을 실행하고, 어플리케이션 실행 화면(310)을 도 3b와 같이 표시할 수 있다. 지도 어플리케이션에 대응하는 어플리케이션 실행 화면(310)은 "A THEATER", "B SPORTS" 및 "C HAIRSHOP"의 위치 및 주변 거리를 표시하는 지도 및 복수 개의 기능 키들(311,312,313,314)을 포함할 수 있다. 예를 들어, 제 1 기능 키(311)는 지도를 표시하도록 하는 기능키일 수 있으며, 제 2 기능 키(312)는 항공 사진을 표시하도록 하는 기능키일 수 있으며, 제 3 기능키(313)는 지도를 확대하도록 하는 기능키일 수 있으며, 제 4 기능키(314)는 지도를 축소하도록 하는 기능키일 수 있다.
다시 도 2를 참조하면, 전자 장치는 프로젝트 표시 모드를 실행할 수 있으며(S203), 어플리케이션 실행 화면을 프로젝트 모듈로 투사하여 표시할 수 있다(S205). 예를 들어, 도 3c와 같이, 제어부(110)는 터치스크린(190)에 표시되는 어플리케이션 실행 화면(310)과 동일한 이미지를 투사하도록 프로젝트 모듈(177)을 제어할 수 있다. 프로젝트 모듈(177)은 어플리케이션 실행 화면(310)과 동일한 투사 이미지(320)를 생성하여 투사할 수 있다. 투사 이미지(320) 또한 제 1 내지 제 4 기능키(311 내지 314)에 대응하는 제 1 내지 제 4 투사 기능키(321 내지 324)를 포함할 수 있다.
한편, 프로젝트 표시 모드가 실행되면(S203), 제어부(110)는 어플리케이션 실행 화면(310) 상에 일반 모드 및 터치스크린의 포인터(pointer) 모드 중 하나를 결정하도록 하는 토글링(toggling) 스위치(315)를 더 표시하도록 제어할 수 있다. 여기에서, 일반 모드는 터치스크린(190)에서 감지되는 제스처를 어플리케이션에 디스패치(dispatch)하는 모드일 수 있다. 아울러, 터치스크린의 포인터 모드는 터치스크린(190)에서 감지되는 제스처를 어플리케이션에 디스패치하지 않고, 투사 이미지(320) 상의 포인터 이동에 이용하는 모드일 수 있다.
예를 들어, 도 3c의 토글링 스위치(315)가 왼쪽 부분에 위치하도록 설정된 경우에는 제어부(110)는 일반 모드로 설정할 수 있으며, 토글링 스위치(315)가 오른쪽 부분에 위치하도록 설정된 경우에는 제어부(110)는 터치스크린의 포인터 모드로 설정할 수 있다(S207-N). 도 3c의 실시 예에서는 토글링 스위치(315)가 왼쪽 부분에 위치하도록 설정되어 있어 일반 모드로 설정된 경우이다. 이에 따라, 예를 들어 사용자(10)가 도 3d와 같이 좌측으로의 연속 터치 제스처(331)를 입력하는 경우, 제어부(110)는 터치스크린(190)에서 감지되는 연속 터치 제스처(331)를 지도 어플리케이션에 디스패치할 수 있다.
좌측으로의 연속 터치 제스처(331)가 감지되면, 지도 어플리케이션은 현재 표시되는 지역의 우측의 지역에 대응하는 지도를 출력하도록 설정될 수 있다. 제어부(110)는 지도 어플리케이션의 출력에 해당하는 우측의 지역에 대응하는 지도를 포함하는 어플리케이션 실행 화면(340)을 도 3e와 같이 표시하도록 제어할 수 있다. 어플리케이션 실행 화면(340)은 "A THEATER", "B SPORTS" 및 "D FOOD" 및 주변 거리 지형을 포함할 수 있다. 특히, 어플리케이션 실행 화면(320)에서 상대적으로 우측에 표시되던 "A THEATER", "B SPORTS"이 어플리케이션 실행 화면(340)에서는 상대적으로 좌측에 표시되는 것을 확인할 수 있다. 즉, 어플리케이션 실행 화면(340)은 어플리케이션 실행 화면(320)의 우측의 지역에 해당하는 지도인 것을 확인할 수 있다.
즉, 일반 모드에서는 터치스크린(190)에서 감지되는 제스처를 어플리케이션에 디스패치할 수 있다. 어플리케이션은 디스패치된 제스처에 대응하는 이벤트를 출력할 수 있다(S209). 예를 들어, 감지된 제스처에 대응하는 이벤트가 표시 화면 변경인 경우에는, 전자 장치(100)는 터치스크린(190)에 변경된 화면을 표시할 수 있다. 아울러, 전자 장치(100)는 변경된 화면을 투사하여 표시할 수도 있다. 한편, 감지된 제스처에 대응하는 이벤트가 표시 화면 변경인 것은 단순히 예시적인 것이며, 전자 장치(100)는 디스패치된 제스처에 대응하여 음성, 빛, 진동 등과 같은 다양한 방식의 이벤트를 출력할 수도 있다.
다시, 도 2를 참조하면, 제어부(110)는 터치스크린의 포인터 모드를 설정할 수 있으며(S207-Y), 터치스크린(190)에서 감지되는 제스처에 대응하여 포인터를 표시할 수 있다(S211).
도 3f는 도 3c에서 토글링 스위치(315)를 우측에 위치하도록 설정된 경우의 개념도이다. 도 3f를 참조하면, 토글링 스위치(315)가 우측에 위치하도록 설정된 경우, 터치스크린의 포인터 모드가 설정될 수 있다. 터치스크린의 포인터 모드가 설정되면, 제어부(110)는 어플리케이션 실행 화면(310) 상에 포인터(361)를 표시하도록 제어할 수 있다. 또한, 프로젝트 모듈(177)은 포인터(361)에 대응하는 투사된 포인터(362)를 투사 이미지(320) 상에 표시하도록 제어할 수 있다.
도 3g에서, 사용자(10)는 좌측으로의 연속 터치 제스처(371)를 입력할 수 있다. 제어부(110)는 터치스크린(190)상에 감지된 좌측으로의 연속 터치 제스처(371)를 인터셉트(intercept)하여 지도 어플리케이션에 디스패치하지 않는다. 제어부(110)는 좌측으로의 연속 터치 제스처(371)에 대응하여 포인터를 이동하여 표시하도록 제어할 수 있다.
제어부(110)는 도 3h에서와 같이, 좌측으로의 연속 터치 제스처(371)에 대응하여 포인터(361)를 좌측으로 이동시켜 표시하도록 터치스크린(190)을 제어할 수 있다. 아울러, 제어부(110)는 투사된 포인터(362) 또한 좌측으로 이동시켜 표시하도록 프로젝트 모듈(177)을 제어할 수 있다. 특히, 좌측으로의 연속 터치 제스처(371)가 지도 어플리케이션에 디스패치되지 않기 때문에, 어플리케이션 실행 화면(310) 및 투사 이미지(320)는 변화되지 않는다.
이에 따라, 사용자는 예를 들어 프리젠테이션 과정 중 다른 사용자에게 지도상의 특정 지점을 선택하여 알리고자 하는 경우, 터치스크린의 포인터 모드를 설정하여 포인터를 이동시킴으로써 특정 지점을 선택하여 알릴 수 있다. 아울러, 지도에서 표시되는 지점을 우측 지역으로 이동시키고자 하는 경우에는, 토글링 스위치를 좌측으로 이동시켜 일반 모드를 설정할 수 있다. 사용자는 일반 모드에서 좌측으로의 연속 터치 제스처를 입력하여 우측 지역의 지도를 표시하도록 조작할 수 있다. 또한, 사용자는 토글링 스위치를 다시 우측으로 이동시켜 포인터를 생성하고 선택하고자 하는 지점으로 포인터를 이동시키도록 조작할 수 있다.
한편, 도 3i는 본 발명의 다른 실시 예에 의한 전자 장치의 개념도이다. 도 3i에 도시된 바와 같이, 터치스크린의 포인터 모드가 설정된 경우에는, 터치스크린(190)에 토글링 스위치(315)만이 표시될 수도 있다.
도 4a 및 4b는 본 발명의 다양한 실시 예들에 의한 전자 장치의 제어 방법을 설명하기 위한 흐름도들이다.
우선, 도 4a를 참조하면, 전자 장치는 터치스크린의 포인터 모드를 실행할 수 있다(S401). 아울러, 전자 장치는 터치스크린에 입력되는 연속 터치 제스처를 감지할 수 있다(S403). 전자 장치는 감지된 연속 터치 제스처의 거리 및 방향을 판단할 수 있다(S405). 전자 장치는 판단된 거리 및 방향에 기초하여 포인터의 이동 거리 및 방향을 결정할 수 있다(S407). 즉, 전자 장치는 이동 후 포인터의 위치를 결정할 수 있으며, 결정된 위치로 포인터를 이동하여 표시할 수 있다(S409).
도 4b는 본 발명의 다른 실시 예에 의한 전자 장치의 제어 방법을 설명하는 흐름도이다. 전자 장치는 터치스크린의 포인터 모드를 실행할 수 있다(S401). 아울러, 전자 장치는 터치스크린에 입력되는 연속 터치 제스처를 감지할 수 있다(S403). 전자 장치는 연속 터치 제스처의 시작점 및 종점의 터치스크린 상의 좌표를 확인할 수 있다(S411).
예를 들어, 터치스크린 상의 시작점의 좌표를 (tx1, ty1)이라고 명명하며, 종점의 좌표를 (tx2, ty2)라고 명명하도록 한다. 여기에서, tx1 및 tx2는 수평 위치에 해당하며, ty1 및 ty2는 수직 위치에 대응하며, 각각의 값은 픽셀 단위로 결정될 수 있다.
한편 연속 터치 제스처의 시작점은 다운 제스처가 입력되는 지점일 수 있다. 다운 제스처는 사용자의 손가락 또는 좌표 지정 장치가 터치스크린을 터치하는 제스처일 수 있다. 아울러 연속 터치 제스처의 종점은 업 제스처에 대응하는 지점일 수 있다. 업 제스처는 터치스크린으로부터 사용자의 손가락 또는 좌표 지정 장치의 터치가 해제되는 제스처일 수 있다. 한편, 업 제스처 및 다운 제스처 사이에 터치 지점의 좌표가 이동하는 제스처는 무브(move) 제스처라고 명명할 수 있다.
제어부(110)는 연속 터치 제스처의 시작점 및 종점의 좌표에 기초하여 수평 거리(dX) 및 수직 거리(dY)를 계산할 수 있다(S413). 제어부(110)는 예를 들어 수학식 1에 기초하여 수평 거리(dX) 및 수직 거리(dY)를 계산할 수 있다.
Figure pat00001
Figure pat00002
제어부(110)는 스케일 팩터에 기초하여 거리를 스케일할 수 있다(S415). 예를 들어 수평 방향 스케일 팩터를 stX라고 명명하며, 수직 방향 스케일 팩터를 stY라고 명명할 수 있다. 예를 들어, 제어부(110)는 수학식 2에 기초하여 포인터 이동 거리를 스케일할 수 있다.
Figure pat00003
Figure pat00004
수학식 2에서 PdX는 스케일된 포인터의 수평 방향 이동 거리이며, PdY는 스케일된 포인터의 수직 방향 이동 거리이다. 아울러 stX는 프로젝터 스크린의 너비를 터치스크린의 너비로 나눈 값일 수 있으며, stY는 프로젝터 스크린의 높이를 터치스크린의 높이로 나눈 값일 수 있다.
제어부(110)는 이동 이후의 포인터 위치를 계산할 수 있다(S417). 예를 들어, 제어부(110)는 수학식 3에 기초하여 이동 이후의 포인터 위치를 계산할 수 있다.
Figure pat00005
Figure pat00006
수학식 3에서 pX1 및 pY1는 이동 이전의 포인터 위치의 수평 방향 및 수직 방향의 좌표이다. 아울러 pX2 및 pY2는 이동 이후의 포인터 위치의 수평 방향 및 수직 방향의 좌표이다.
한편, 제어부(110)는 계산된 포인터의 위치(pX2,pY2)가 경계 외부에 위치하지 않도록 처리할 수 있다(S419). 예를 들어 투사 이미지의 수평 방향 좌표가 bx0 내지 bx1으로 설정되고, 수직 방향 좌표가 by0 내지 by1으로 설정된 경우를 상정하도록 한다. 예를 들어, 제어부(110)는 계산된 포인터의 위치(pX2,pY2)가 경계 외부에 위치하지 않도록 수학식 4를 이용하여 처리할 수 있다.
Figure pat00007
Figure pat00008
Figure pat00009
Figure pat00010
즉, 제어부(110)는 이동 후 포인터의 위치가 투사 이미지의 경계 외부로 결정된 경우에는, 이동 후의 포인터의 위치를 투사 이미지의 경계에 존재하도록 처리할 수 있다.
제어부(110)는 상술한 과정에 따라서 포인터의 위치(pX2,pY2)를 결정할 수 있으며, 결정된 포인터가 해당 위치에서 투사 이미지상에 표시되도록 프로젝트 모듈을 제어할 수 있다.
도 5는 본 발명의 다른 실시 예에 의한 전자 장치의 제어 방법을 설명하는 흐름도이다. 도 5의 제어 방법은 도 6a 및 6b를 참조하여 더욱 상세하게 설명하도록 한다. 도 6a 및 6b는 본 발명의 일 실시 예에 의한 전자 장치의 개념도들이다.
전자 장치는 터치스크린의 포인터 모드를 실행할 수 있다(S501). 아울러 전자 장치는 터치스크린에 입력되는 포인터 이동 명령을 감지할 수 있다(S503-Y). 예를 들어, 전자 장치는 터치스크린에 제 1 지점으로부터 제 2 지점으로의 연속 터치 제스처를 감지할 수 있다. 전자 장치는 포인터 이동 명령을 실행중인 어플리케이션에 디스패치하지 않고, 포인터 이동 명령에 대응하여 투사 이미지상의 포인터를 이동시켜 표시할 수 있다(S505).
또는 전자 장치는 터치스크린에 포인터 실행 명령을 감지할 수 있다(S507-Y). 예를 들어, 도 6a에서와 같이 사용자(10)는 터치스크린에 터치 제스처(601)를 감지할 수 있다. 전자 장치는 포인터 실행 명령을 실행중인 어플리케이션에 디스패치하여, 포인터에 대응하는 위치, 즉 제 4 투사 기능키(324)에 실행 명령을 입력할 수 있다(S509). 즉, 터치스크린의 포인터 모드가 설정된 경우라도, 포인터 실행 명령이 감지된 경우에는 실행 중인 어플리케이션에 디스패치할 수 있다. 사용자는 특정 어플리케이션에 실행 명령을 입력하기 위하여서는 다시 일반 모드를 설정하도록 조작하고 실행 명령을 입력해야하는 것에서 불편함을 느낄 수 있다. 이에 따라, 전자 장치는 포인터 실행 명령이 감지된 경우에는 실행 중인 어플리케이션에 디스패치하도록 설정될 수 있다.
전자 장치는 실행 명령에 대응하는 이벤트를 출력할 수 있다(S511). 즉, 전자 장치는 제 4 투사 기능키(324)에 대응하는 제 4 기능키(314)의 이벤트를 출력할 수 있다. 예를 들어 도 6b에서와 같이 전자 장치는 제 4 기능키(314)에 대응하여 지도를 축소하여 표시할 수 있다. 도 6b에서는 "A THEATER", "B SPORTS", "C HAIRSHOP" 및 "D FOOD"를 모두 포함하는 상대적으로 축소된 지도가 표시된 것을 확인할 수 있다.
상술한 바에 따라서, 터치스크린의 포인터 모드가 설정된 경우라도, 포인터 실행 명령이 감지된 경우에는 실행 중인 어플리케이션에 디스패치되어 사용자 편의가 극대화될 수 있다.
도 7a 및 7b는 본 발명의 다양한 실시 예들에 의한 전자 장치의 제어 방법을 설명하는 흐름도들이다.
우선, 도 7a를 참조하면, 전자 장치는 어플리케이션을 실행할 수 있다(S701). 전자 장치가 일반 모드로 설정된 경우(S703-Y), 전자 장치는 터치스크린에서 감지되는 제스처를 실행 중인 어플리케이션에 디스패치할 수 있다(S705). 한편, 전자 장치가 터치스크린의 포인터 모드로 설정된 경우(S707-Y), 전자 장치는 터치스크린에서 감지되는 제스처에 대응하여 포인터를 이동시켜 표시할 수 있다(S709).
다음으로, 도 7b를 참조하면, 전자 장치는 어플리케이션을 실행할 수 있다(S701). 한편, S701 단계 내지 S707 단계에 대하여서는 도 7a에서 설명하였기 때문에 여기에서의 설명은 생략하도록 한다. 터치스크린의 포인터 모드가 설정된 경우(S707-Y), 전자 장치는 감지되는 명령이 포인터 이동 명령인지 포인터 실행 명령인지를 구분할 수 있다. 예를 들어, 연속 터치 제스처가 감지된 경우에는, 전자 장치는 감지되는 명령이 포인터 이동 명령인 것으로 판단할 수 있다. 또는 터치 제스처가 감지된 경우에는, 전자 장치는 감지되는 명령이 포인터 실행 명령인 것으로 판단할 수 있다.
포인터 이동 명령이 감지된 것으로 판단하면(S711-Y), 전자 장치는 감지된 포인터 이동 명령을 어플리케이션에 디스패치하지 않으며 포인터를 이동시켜 표시할 수 있다(S709).
포인터 실행 명령이 감지된 것으로 판단하면(S713-Y), 전자 장치는 감지된 포인터 실행 명령을 어플리케이션에 디스패치할 수 있다(S705). 전자 장치는 포인터가 위치한 곳에 대응하는 터치스크린 부분에 실행 명령을 입력할 수 있다.
도 8a 및 8b는 본 발명의 다양한 실시 예에 따른 전자 장치의 개념도들이다.
우선, 도 8a를 참조하면, 전자 장치(100)는 외부 장치(800)와 통신을 수행할 수 있다. 전자 장치(100)는 예를 들어 블루투스(bluetooth), 적외선 통신, Zig-bee 통신 등에 기초하여 외부 장치(800)와 데이터를 송수신할 수 있다. 전자 장치(100)는 표시되는 화면(310)을 외부 장치(800)로 송신할 수 있다. 외부 장치(800)는 수신된 화면(320)을 표시할 수 있다. 한편, 사용자는 전자 장치(100)의 터치스크린(190)에 연속 터치 제스처와 같은 포인터 이동 명령을 입력할 수 있다. 전자 장치는 감지된 포인터 이동 명령에 기초하여 포인터의 위치를 결정할 수 있다. 전자 장치는 포인터를 화면(310)에 표시할 수 있으며, 포인터가 표시된 화면(310) 데이터를 외부 장치(800)로 송신할 수 있다. 외부 장치(800)는 수신된 포인터가 표시된 화면(320)을 표시할 수 있다.
또는, 도 8b에서와 같이, 전자 장치(100)는 서버(810)의 중계를 통하여 외부 장치(800)와 데이터를 송수신할 수도 있다. 이에 따라, 전자 장치(100)가 외부 장치(800)와 원거리에 위치한 경우에 있어서도, 터치스크린(190)에 감지된 포인터 이동 명령에 대응하여 포인터가 표시된 화면을 외부 장치(800)로 송신할 수 있다.
도 9는 본 발명의 다른 실시 예에 의한 전자 장치의 제어 방법을 설명하는 흐름도이다.
전자 장치는 입력되는 제 1 제스처를 획득할 수 있다(S901). 한편, 입력되는 제 1 제스처가 다운 제스처인 경우에는(S903-Y), 전자 장치는 타이머를 실행할 수 있다(S905). 타이머가 실행되어 기설정된 시간 내에 제 2 제스처가 입력되지 않으면(S905-N), 전자 장치는 감지된 제 1 제스처를 실행 중인 어플리케이션에 디스패치할 수 있다(S909).
한편, 타이머가 실행되어 기설정된 시간 내에 제 2 제스처가 입력되면(S905-Y), 전자 장치는 감지된 제 1 제스처 및 제 2 제스처가 함께 무브 제스처를 형성하는지를 판단할 수 있다(S911). 제 1 제스처 및 제 2 제스처가 함께 무브 제스처를 형성하는 것으로 판단되면(S911-Y), 전자 장치는 무브 제스처에 대응하여 포인터를 이동하여 표시할 수 있다(S915). 전자 장치는 제 1 제스처 입력 시점(t1) 및 제 2 제스처 입력 시점(t2)을 확인하고, 제스처 입력 시간(|t1-t2|)를 기설정된 시간과 비교할 수 있다. 아울러, 전자 장치는 이후에 순차적으로 입력되는 제스처에 대응하여 포인터를 추가 이동하여 표시할 수도 있다. 한편, 전자 장치는 진동모터(164)로 진동을 생성하여 기설정된 시간 내에 제스처가 입력되었는지를 사용자로 하여금 식별할 수 있도록 한다.
한편, 제 1 제스처 및 제 2 제스처가 함께 무브 제스처를 형성하지 않는 것으로 판단되면(S911-N), 전자 장치는 감지된 제 2 제스처를 업 제스처로 판단하고, 제스처를 실행 중인 어플리케이션에 디스패치할 수 있다(S913).
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 그래픽 화면 갱신 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 그래픽 처리 장치가 기설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 그래픽 처리 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 그래픽 처리 장치의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.

Claims (20)

  1. 어플리케이션을 실행하여 표시하는 전자 장치의 제어 방법에 있어서,
    어플리케이션의 실행 화면을 터치스크린에 표시하는 단계;
    상기 어플리케이션의 실행 화면에 대응하는 투사 이미지를 투사하여 표시하는 단계;
    상기 투사 이미지상에 포인터(pointer)를 표시하는 단계; 및
    상기 터치스크린에서 감지되는 제스처에 대응하여 상기 포인터를 이동시켜 표시하는 단계;를 포함하는 전자 장치의 제어 방법.
  2. 제 1 항에 있어서,
    상기 포인터를 이동시켜 표시하는 단계는,
    상기 감지되는 제스처를 인터셉트(intercept)하여, 상기 어플리케이션에 상기 감지되는 제스처를 디스패치(dispatch)하지 않도록 제어하는 것을 특징으로 하는 전자 장치의 제어 방법.
  3. 제 1 항에 있어서,
    상기 감지되는 제스처는 상기 터치스크린의 제 1 지점으로부터 제 2 지점으로의 연속 터치 제스처인 것을 특징으로 하는 것을 특징으로 하는 전자 장치의 제어 방법.
  4. 제 3 항에 있어서,
    상기 포인터를 이동시켜 표시하는 단계는,
    상기 연속 터치 제스처의 거리 및 방향을 판단하여, 판단된 거리 및 방향에 기초하여 이동 후의 포인터 위치를 결정하는 것을 특징으로 하는 전자 장치의 제어 방법.
  5. 제 4 항에 있어서,
    상기 포인터를 이동시켜 표시하는 단계는,
    상기 제 1 지점으로부터 상기 제 2 지점으로의 터치스크린 상의 거리를 확인하는 것을 특징으로 하는 전자 장치의 제어 방법.
  6. 제 5 항에 있어서,
    상기 포인터를 이동시켜 표시하는 단계는,
    상기 터치스크린 및 상기 투사 이미지의 비율에 대한 스케일 팩터(scale factor)에 기초하여, 상기 확인된 거리를 스케일링하는 것을 특징으로 하는 전자 장치의 제어 방법.
  7. 제 6 항에 있어서,
    상기 포인터를 이동시켜 표시하는 단계는,
    상기 스케일링된 거리에 기초하여 이동 후의 포인터 위치를 계산하는 것을 특징으로 하는 전자 장치의 제어 방법.
  8. 제 1 항에 있어서,
    상기 터치스크린에서 감지되는 제스처를 상기 포인터 이동에 이용하는 터치스크린의 포인터 모드 및 상기 터치스크린에서 감지되는 제스처를 상기 어플리케이션에 디스패치하는 일반 모드를 토글링(toggling)하는 스위치를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 전자 장치의 제어 방법.
  9. 제 8 항에 있어서,
    상기 토글링 스위치가 일반 모드로 설정된 경우에는, 상기 감지되는 제스처를 인터셉트하지 않고 상기 어플리케이션에 디스패치하는 것을 특징으로 하는 전자 장치의 제어 방법.
  10. 제 1 항에 있어서,
    상기 터치스크린에서 감지되는 제스처가 포인터 실행 명령인 경우에는, 상기 투사 이미지상의 포인터에 대응하는 부분에 실행 명령을 입력하는 것을 특징으로 하는 전자 장치의 제어 방법.
  11. 어플리케이션의 실행 화면을 표시하는 터치스크린;
    상기 어플리케이션의 실행 화면에 대응하는 투사 이미지를 투사하여 표시하는 프로젝트 모듈; 및
    상기 투사 이미지상에 포인터(pointer)를 표시하고, 상기 터치스크린에서 감지되는 제스처에 대응하여 상기 포인터를 이동시켜 표시하도록 제어하는 제어부;를 포함하는 전자 장치.
  12. 제 11 항에 있어서,
    상기 제어부는, 상기 감지되는 제스처를 인터셉트(intercept)하여, 상기 어플리케이션에 상기 감지되는 제스처를 디스패치(dispatch)하지 않도록 제어하는 것을 특징으로 하는 전자 장치.
  13. 제 11 항에 있어서,
    상기 감지되는 제스처는 상기 터치스크린의 제 1 지점으로부터 제 2 지점으로의 연속 터치 제스처인 것을 특징으로 하는 것을 특징으로 하는 전자 장치.
  14. 제 13 항에 있어서,
    상기 제어부는, 상기 연속 터치 제스처의 거리 및 방향을 판단하여, 판단된 거리 및 방향에 기초하여 이동 후의 포인터 위치를 결정하는 것을 특징으로 하는 전자 장치.
  15. 제 14 항에 있어서,
    상기 제어부는, 상기 제 1 지점으로부터 상기 제 2 지점으로의 터치스크린 상의 거리를 확인하는 것을 특징으로 하는 전자 장치.
  16. 제 15 항에 있어서,
    상기 제어부는, 상기 터치스크린 및 상기 투사 이미지의 비율에 대한 스케일 팩터(scale factor)에 기초하여, 상기 확인된 거리를 스케일링하는 것을 특징으로 하는 전자 장치.
  17. 제 16 항에 있어서,
    상기 제어부는, 상기 스케일링된 거리에 기초하여 이동 후의 포인터 위치를 계산하는 것을 특징으로 하는 전자 장치.
  18. 제 11 항에 있어서,
    상기 터치스크린은, 상기 터치스크린에서 감지되는 제스처를 상기 포인터 이동에 이용하는 터치스크린의 포인터 모드 및 상기 터치스크린에서 감지되는 제스처를 상기 어플리케이션에 디스패치하는 일반 모드를 토글링(toggling)하는 스위치를 더 표시하는 것을 특징으로 하는 전자 장치.
  19. 제 18 항에 있어서,
    상기 토글링 스위치가 일반 모드로 설정된 경우에는, 상기 제어부는 상기 감지되는 제스처를 인터셉트하지 않고 상기 어플리케이션에 디스패치하는 것을 특징으로 하는 전자 장치.
  20. 제 11 항에 있어서,
    상기 터치스크린에서 감지되는 제스처가 포인터 실행 명령인 경우에는, 상기 제어부는 상기 투사 이미지상의 포인터에 대응하는 부분에 실행 명령을 입력하는 것을 특징으로 하는 전자 장치.
KR1020130033598A 2013-03-28 2013-03-28 프로젝터를 포함하는 전자 장치 및 그 제어 방법 KR102097452B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130033598A KR102097452B1 (ko) 2013-03-28 2013-03-28 프로젝터를 포함하는 전자 장치 및 그 제어 방법
US14/152,238 US9569065B2 (en) 2013-03-28 2014-01-10 Electronic device including projector and method for controlling the electronic device
EP14160415.7A EP2784655B1 (en) 2013-03-28 2014-03-18 Electronic device including projector and method for controlling the electronic device
CN201410116651.7A CN104077074A (zh) 2013-03-28 2014-03-26 包括投影仪的电子设备和控制所述电子设备的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130033598A KR102097452B1 (ko) 2013-03-28 2013-03-28 프로젝터를 포함하는 전자 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20130086574A true KR20130086574A (ko) 2013-08-02
KR102097452B1 KR102097452B1 (ko) 2020-04-07

Family

ID=49213749

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130033598A KR102097452B1 (ko) 2013-03-28 2013-03-28 프로젝터를 포함하는 전자 장치 및 그 제어 방법

Country Status (4)

Country Link
US (1) US9569065B2 (ko)
EP (1) EP2784655B1 (ko)
KR (1) KR102097452B1 (ko)
CN (1) CN104077074A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881109A (zh) * 2014-02-28 2015-09-02 联想(北京)有限公司 一种动作识别方法、装置及电子设备
CN104980723A (zh) * 2014-04-03 2015-10-14 洪水和 具有模块化外接功能的平板式投影***
CN105335018A (zh) * 2014-08-07 2016-02-17 联想(北京)有限公司 具有触控功能的电子装置的控制方法及控制***
WO2023128611A1 (ko) * 2021-12-30 2023-07-06 주식회사 브이터치 사용자 입력을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD760209S1 (en) * 2013-04-11 2016-06-28 Huizhou Tcl Mobile Communication Co., Ltd. Mobile phone sheath embedded with projection device
US9692860B2 (en) * 2014-05-15 2017-06-27 Apple Inc. One layer metal trace strain gauge
KR102447907B1 (ko) * 2015-11-05 2022-09-28 삼성전자주식회사 추천 객체를 제공하기 위한 전자 장치 및 방법
CN106612423A (zh) * 2015-12-31 2017-05-03 北京数科技有限公司 一种针对投影图像的触控方法及装置
CN105975150A (zh) * 2016-04-27 2016-09-28 广东欧珀移动通信有限公司 一种用户终端控制方法及用户终端
US10228892B2 (en) * 2017-03-17 2019-03-12 Dell Products L.P. Information handling system management of virtual input device interactions
US10223057B2 (en) 2017-03-17 2019-03-05 Dell Products L.P. Information handling system management of virtual input device interactions
TWI671621B (zh) * 2017-05-24 2019-09-11 仁寶電腦工業股份有限公司 電子裝置與主機底座
CN110531843A (zh) * 2018-05-24 2019-12-03 富泰华工业(深圳)有限公司 电子装置及电子装置的操作控制方法
CN112019660B (zh) * 2019-05-31 2021-07-30 Oppo广东移动通信有限公司 电子装置的控制方法及电子装置
US11349976B2 (en) 2019-09-12 2022-05-31 Lenovo (Beijing) Co., Ltd. Information processing method, file transmission method, electronic apparatus, and computing apparatus
CN110620845B (zh) * 2019-09-12 2021-01-15 联想(北京)有限公司 信息处理方法、电子设备以及计算设备
CN112905136A (zh) * 2021-03-11 2021-06-04 北京小米移动软件有限公司 投屏控制方法、装置以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1093050A2 (en) * 1999-10-14 2001-04-18 Fujitsu Limited Information processing system and screen display method
KR20100045690A (ko) * 2008-10-24 2010-05-04 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20130050077A1 (en) * 2010-05-06 2013-02-28 France Telecom Terminal Including a Video Projector and a Screen, Having one Area that Enables Control of a Remote Pointer Projected by Said Video Projector

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750803B2 (en) 2001-02-23 2004-06-15 Interlink Electronics, Inc. Transformer remote control
CN101764804A (zh) * 2003-09-10 2010-06-30 高通股份有限公司 高数据速率接口
CA2775784A1 (en) * 2004-03-10 2005-09-22 Qualcomm Incorporated High data rate interface apparatus and method
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
WO2008041605A1 (fr) * 2006-09-29 2008-04-10 Brother Kogyo Kabushiki Kaisha Appareil de projection, support d'enregistrement comportant un programme enregistré en lui, procédé de projection et système de projection
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101537596B1 (ko) * 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
KR101526998B1 (ko) * 2008-10-16 2015-06-08 엘지전자 주식회사 이동통신 단말기 및 그 절전 방법
KR101520689B1 (ko) 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
JP5713180B2 (ja) 2008-10-24 2015-05-07 日本電気株式会社 検知領域がディスプレイの表示領域よりも小さくても同等時のように動作するタッチパネル装置
KR20100050180A (ko) * 2008-11-05 2010-05-13 삼성전자주식회사 프로젝터를 구비한 휴대 단말기 및 그 휴대 단말기에서 표시부 제어 방법
KR101631103B1 (ko) 2009-02-05 2016-06-16 삼성전자주식회사 헤드셋을 통한 프로젝터 기능의 휴대 단말기 제어 방법
KR101613939B1 (ko) * 2009-08-12 2016-04-20 엘지전자 주식회사 이동 단말기 및 이것의 전원 제어 방법
US20110070920A1 (en) * 2009-09-24 2011-03-24 Saied Aasim M Method for a phone with content projector
KR20110046941A (ko) 2009-10-29 2011-05-06 삼성전자주식회사 프로젝터를 구비한 이동 단말 및 그 제어 방법
KR20110069526A (ko) 2009-12-17 2011-06-23 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
KR20110069946A (ko) * 2009-12-18 2011-06-24 삼성전자주식회사 외부 조사 장치를 가지는 휴대 단말기 및 이의 운용 방법
JP6127552B2 (ja) * 2013-02-07 2017-05-17 株式会社リコー 情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1093050A2 (en) * 1999-10-14 2001-04-18 Fujitsu Limited Information processing system and screen display method
KR20100045690A (ko) * 2008-10-24 2010-05-04 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20130050077A1 (en) * 2010-05-06 2013-02-28 France Telecom Terminal Including a Video Projector and a Screen, Having one Area that Enables Control of a Remote Pointer Projected by Said Video Projector

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881109A (zh) * 2014-02-28 2015-09-02 联想(北京)有限公司 一种动作识别方法、装置及电子设备
CN104980723A (zh) * 2014-04-03 2015-10-14 洪水和 具有模块化外接功能的平板式投影***
CN105335018A (zh) * 2014-08-07 2016-02-17 联想(北京)有限公司 具有触控功能的电子装置的控制方法及控制***
WO2023128611A1 (ko) * 2021-12-30 2023-07-06 주식회사 브이터치 사용자 입력을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
EP2784655A3 (en) 2017-04-26
EP2784655A2 (en) 2014-10-01
US9569065B2 (en) 2017-02-14
EP2784655B1 (en) 2019-07-17
CN104077074A (zh) 2014-10-01
KR102097452B1 (ko) 2020-04-07
US20140298271A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
KR102097452B1 (ko) 프로젝터를 포함하는 전자 장치 및 그 제어 방법
KR102481878B1 (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
CN107810470B (zh) 便携式装置和用于改变其屏幕的方法
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
KR102028336B1 (ko) 복수 스크린을 표시하는 디스플레이 장치 및 그 제어 방법
KR20140108798A (ko) 위젯을 이용한 사진 촬영 방법 및 휴대 장치
US20180329598A1 (en) Method and apparatus for dynamic display box management
KR20150065484A (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140000572A (ko) 모바일 장치에서의 메뉴 표시 장치 및 방법
KR20140134088A (ko) 전자장치의 사용 방법 및 장치
KR20140141383A (ko) 협동 촬영하는 전자 장치 및 그 제어 방법
KR20150001891A (ko) 질문 메시지를 공유하는 전자 장치 및 그 제어 방법
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
KR20140131051A (ko) 압력 센서를 포함하는 전자 장치 및 그 제어 방법
US20180267766A1 (en) Display device having transparent display and method for controlling display device
KR20130123794A (ko) 메모용 어플리케이션
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20140113032A (ko) 휴대단말기의 표시화면을 표시하는 방법 및 장치
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102239019B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102160954B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치

Legal Events

Date Code Title Description
G15R Request for early opening
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant