KR20140049324A - 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치 - Google Patents

필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치 Download PDF

Info

Publication number
KR20140049324A
KR20140049324A KR1020120115450A KR20120115450A KR20140049324A KR 20140049324 A KR20140049324 A KR 20140049324A KR 1020120115450 A KR1020120115450 A KR 1020120115450A KR 20120115450 A KR20120115450 A KR 20120115450A KR 20140049324 A KR20140049324 A KR 20140049324A
Authority
KR
South Korea
Prior art keywords
area
virtual
touch
hand
pen
Prior art date
Application number
KR1020120115450A
Other languages
English (en)
Inventor
윤성진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120115450A priority Critical patent/KR20140049324A/ko
Publication of KR20140049324A publication Critical patent/KR20140049324A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

필기 입력에 따른 콘텐츠 디스플레이 방법에 있어서; 터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 및 펜 터치 영역을 판단하며, 상기 판단한 손 터치 및 펜 터치 영역을 포함하는 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 과정과; 상기 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 상기 가림 영역 내의 콘텐츠 영상이 상기 가림 영역의 외곽에 위치하도록 상기 가상 영역 내의 콘텐츠의 영상을 변환하여 상기 변환한 콘텐츠 영상의 디스플레이를 변경하는 과정을 포함함을 특징으로 한다.

Description

필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치{METHOD AND APPARATUS FOR CONTENTS DISPLAY ACCORDING TO HANDWRITING}
본 발명은 단말기에 입력되는 정보를 표시하는 디스플레이에 관한 기술로서, 특히 터치패드 및 터치스크린과 같은 터치 방식의 사용자 인터페이스 환경을 적용하는 단말기에서의 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치에 관한 것이다.
일반적으로 디스플레이 장치는 데이터를 시각적으로 표시하는 화면 표시 장치를 말하며, 최근에는 터치 패널이 장착된 터치스크린의 사용이 일반화 되고 있다.
터치 패널은 키보드를 사용하지 않고 화면에 나타난 문자나 특정 위치에 사람의 손 또는 물체와 같은 입력수단이 접촉(터치)하는 경우, 터치 위치를 검출하여 저장된 소프트웨어를 사용하여 특정 처리를 할 수 있는 사용자 인터페이스 장치를 말한다.
또한 최근에는 터치 패널이 장착된 터치스크린을 구비한 스마트폰과, 태블릿 PC와, 피디에이(PAD; Personal Digital Assistants)와, 내비게이션 등의 단말기들을 쉽게 접할 수 있다.
이와 같이 터치스크린을 구비한 단말기들은 이전의 키패드 입력을 적용한 단말기들과 비교하였을 때, 입력의 편리성 및 단말기의 소형화의 장점이 있다. 또한 전체 사이즈가 동일한 장치일 경우, 키패드를 구비한 단말기보다 터치스크린을 구비한 단말기가 더 큰 디스플레이 화면을 구비 할 수 있는 장점이 있다.
단말기 상에 입력되는 정보를 표시하는 디스플레이에 관한 종래 기술에는 국내 특허 공개번호 제 2008-0069330(명칭; "정보 표시 장치 및 방법", 발명자; 강태영, 류동석, 출원인; 삼성전자주식회사, 공개일; 2008년 07월 28일)과 국내 특허 공개번호 제 2009-0041784(명칭; "가변적 디스플레이 장치 및 그 디스플레이 방법", 발명자; 장욱, 박준아, 이현정, 출원인; 삼성전자주식회사, 공개일; 2009년 04월 29일)가 있다.
국내 특허 공개번호 제 2008-0069330호는 정보 표시 장치 및 방법에 관한 것으로서, 터치패널에서 접촉이 감지되어 접촉된 영역에 정보가 존재하는 경우 해당 정보를 접촉이 감지된 영역을 벗어난 위치에 표시하는 방법 및 장치를 개시하였다. 또한 국내 특허 공개번호 제 2009-0041784호는 가변적 디스플레이 장치 및 그 디스플레이 방법에 관한 것으로서, 접촉된 손가락의 위치 정보를 검출하여 손가락 접촉 영역을 추출한 후, 손가락 접촉 영역 내에 가려지는 이미지를 재배치하는 방법 및 장치를 개시하였다.
종래 기술들은 터치에 의해 가려지는 영역의 정보를 사용자가 식별할 수 있도록 가려지는 영역의 정보를 재배치하는 방법 및 장치를 개시하긴 하지만, 터치를 적용한 필기 입력 시 종래 기술을 적용하여 가려지는 영역을 재배치한 정보를 확인할 때에는 불편함이 있을 수 있다. 예를 들어, 필기 입력에서 앞뒤로 연결되는 내용의 글들이 디스플레이 되어 있을 경우, 종래 기술의 새로운 영역에 가려지는 영역의 글들을 배치하는 것은 이전에 필기되어 있는 글의 전체가 새로운 영역에 배치되는 것이 아니기 때문에 이전에 필기되어 있는 글을 연속적으로 확인할 수 없는 불편함이 있다. 또한 필기 입력에 따라 터치의 위치가 시간에 따라 방향성을 가지고 이동하게 될 경우, 즉 계속 해서 일정한 속도로 터치의 위치가 이동할 경우, 새로운 영역에 가려지는 영역의 글들을 계속해서 변경하면서 배치하여야 하므로 사용자가 가려지는 영역의 정보를 확인할 때 용이함보다는 혼란을 야기할 수 있다. 즉, 필기 입력 시에 가려지는 정보를 용이하게 확인하기 위한 목적을 가진 종래 기술의 새로운 영역에 가려지는 영역의 정보를 배치하는 것은 본래의 목적을 벗어나서, 사용자가 가려지는 영역의 정보 확인 시 불편함을 주는 문제를 발생시킬 수 있다.
따라서, 본 발명은 필기 입력 시 터치에 의해 가려지는 영역의 정보를 사용자가 용이하게 확인하면서 필기 입력을 할 수 있도록 하기 위한 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치를 제공함에 있다.
상기한 목적을 달성하기 위하여, 본 발명의 일 견지에 따르면, 필기 입력에 따른 콘텐츠 디스플레이 방법에 있어서, 터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 및 펜 터치 영역을 판단하며, 상기 판단한 손 터치 및 펜 터치 영역을 포함하는 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 과정과; 상기 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 상기 가림 영역 내의 콘텐츠 영상이 상기 가림 영역의 외곽에 위치하도록 상기 가상 영역 내의 콘텐츠의 영상을 변환하여 상기 변환한 콘텐츠 영상의 디스플레이를 변경하는 과정을 포함함을 특징으로 한다.
본 발명의 다른 견지에 따르면, 필기 입력에 따른 콘텐츠 디스플레이 장치에 있어서, 사용자의 조작을 입력받는 버튼 및 물리적 또는 가상의 키패드를 포함하는 입/출력 모듈과; 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 하는 터치스크린과; 상기 기능부들을 총괄적으로 제어하며, 상기 터치스크린상의 터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 및 펜 터치 영역을 판단하며, 상기 판단한 손 터치 및 펜 터치 영역을 포함하는 상기 터치스크린 상에 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 영역 설정부와, 상기 영역 설정부에서 설정한 상기 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 상기 가상 영역 내의 콘텐츠의 영상을 변환하며 상기 변환한 콘텐츠 영상의 디스플레이를 변경하는 영상 변경부를 포함하는 제어부를 포함함을 특징으로 한다.
상기한 바와 같이, 본 발명의 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치를 사용함으로서, 가려지는 영역 내에 디스플레이 되어 있는 콘텐츠를 영상 변환하여 가려지는 영역 외곽에 디스플레이 한다. 이에 따라 필기 입력 시 터치에 의해 가려지는 영역을 사용자가 용이하게 확인하면서 필기 입력을 할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 필기 입력에 따른 콘텐츠 디스플레이 장치를 구비한 휴대용 단말기의 블록 구성도
도 2는 본 발명의 일 실시예에 따른 필기 입력에 따른 콘텐츠 디스플레이 동작의 흐름도
도 3은 본 발명의 일 실시예에 따른 터치스크린 상에서의 스타일러스 펜을 이용한 터치 입력 시 스타일러스 펜이 터치되는 영역 및 손이 터치되는 영역을 구분한 예시도
도 4는 본 발명의 일 실시예에 따른 터치스크린 상에서의 스타일러스 펜을 이용한 터치 입력 시 펜 터치 영역과, 손 터치 영역, 및 가려지는 가림 영역을 표시한 예시도
도 5는 본 발명의 일 실시예에 따른 터치스크린 상에서의 필기 입력 시 필기 진행 방향에 의해 가려지는 영역을 나타내는 예시도
도 6은 본 발명의 일 실시예에 따른 터치스크린 상에서의 터치 입력 시 가려지는 영역을 포함하는 가상 영역 및 가상 영역을 변경하여 생성한 변경 영역을 표시한 예시도
도 7은 본 발명의 일 실시예에 따른 필기 입력에 따른 콘텐츠 디스플레이 동작을 적용하여, 터치 입력 시 가려지는 영역의 콘텐츠를 가려지는 영역의 외곽으로 디스플레이한 예시도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 1은 본 발명의 일 실시예에 따른 필기 입력에 따른 콘텐츠 디스플레이 장치를 구비한 휴대용 단말기들 중 스마트폰의 블록 구성도이다. 도 1을 참조하면, 휴대용 단말기(100)는 표시부(190) 및 디스플레이 컨트롤러(195)를 포함한다. 또한, 휴대용 단말기(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리 통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함한다. 이하에서는 상기 표시부(190) 및 디스플레이 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
제어부(110)는 CPU(111), 휴대용 단말기(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 휴대용 단말기(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대용 단말기(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190), 및 터치스크린 컨트롤러(195)를 제어할 수 있다. 또한 제어부(110)는 터치스크린(190)상의 터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 영역 및 펜 터치 영역을 판단하며, 판단한 손 터치 영역 및 펜 터치 영역을 포함하는 터치스크린(190)상에 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 영역 설정부를 포함한다. 영역 설정부에서 손 터치 신호 및 펜 터치 신호를 감지할 때, 터치스크린(190)으로부터의 입력이 사용자의 신체(예, 엄지를 포함하는 손가락)에 의한 입력인지, 터치 가능한 입력 수단(예, 스타일러스 펜)에 의한 입력인지 판단하여 각각의 신호를 구분 할 수 있다. 또한 제어부는 영역 설정부에서 설정한 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 가상 영역 내의 콘텐츠의 영상을 변환하며, 변환한 콘텐츠 영상의 디스플레이를 변경하는 영상 변경부를 포함한다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 휴대용 단말기(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 휴대용 단말기(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰, 태플릿 PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, Access Point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131) 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 휴대용 단말기(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다.
휴대용 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대용 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 휴대용 단말기(100)까지 전파도달시간(Time of Arrival)을 이용하여 휴대용 단말기(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166), 및 이어폰 연결잭(167) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 휴대용 단말기(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호에 대응되는 사운드를 휴대용 단말기(100)의 외부로 출력할 수 있다. 스피커(163)는 휴대용 단말기(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(163)는 휴대용 단말기(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드가 있는 휴대용 단말기(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 휴대용 단말기(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(180) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 휴대용 단말기(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 휴대용 단말기(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 휴대용 단말기(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 휴대용 단말기(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력 받거나, 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 휴대용 단말기(100)의 제어를 위해 사용자로부터 키 입력을 수신한다. 키패드(166)는 휴대용 단말기(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대용 단말기(100)에 형성되는 물리적인 키패드는 휴대용 단말기(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰이 삽입되어 휴대용 단말기(100)에 연결될 수 있다.
센서 모듈(170)은 휴대용 단말기(100)의 상태를 검출하는 적어도 하나의 센서를 포함하며, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대용 단말기(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 롬(ROM), 램(RAM) 또는 휴대용 단말기(100)에 장착되는 메모리 카드(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 휴대용 단말기(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 휴대용 단말기(100)에 전원을 공급한다. 또한 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 휴대용 단말기(100)로 공급할 수 있다. 또한 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 휴대용 단말기(100)로 공급할 수도 있다.
터치스크린(190)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태 등을 디스플레이 한다.
터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진 촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
터치스크린은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y 좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린을 제어할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
또한, 터치스크린(190)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력 받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력 값을 터치스크린 컨트롤러(195)에 제공하고, 터치스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다.
본 발명의 필기 입력에 따른 콘텐츠 디스플레이 방법은 크게 두 과정으로 구분 할 수 있다. 첫 번째 과정은 터치스크린(190)상의 터치 입력 발생 시, 가려지는 가림 영역을 설정하는 과정이다. 즉, 터치스크린(190)상의 터치 입력 발생 시, 신체 부위에 의한 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호를 감지하여 각각의 영역을 판단한다. 이때, 신체 부위에 의한 터치를 손 터치로, 터치 가능한 입력 수단에 의한 터치를 펜 터치로 정의하여, 상기 감지한 터치 신호에 따른 각각의 영역을 손 터치 영역 및 펜 터치 영역으로 결정한다. 이후, 판단한 손 터치 및 펜 터치 영역을 포함하는 터치스크린(190) 상에 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정한다. 첫 번째 과정 이후 두 번째 과정은 가림 영역의 외곽으로 가림 영역 내부의 콘텐츠 영상이 디스플레이 될 수 있도록 콘텐츠 영상을 변환하는 과정이다. 즉, 첫 번째 과정에서 설정한 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 가림 영역 내의 콘텐츠 영상이 가림 영역의 외곽에 위치하도록 가상 영역 내의 콘텐츠의 영상을 변환하여, 변환한 콘텐츠 영상의 디스플레이를 변경한다.
이하에서는 신체 부위에 의한 터치가 손인 경우와 터치 가능한 입력 수단이 스타일러스 펜인 경우를 예로 들어 설명한다.
도 2는 본 발명의 일 실시예에 따른 필기 입력에 따른 콘텐츠 디스플레이 동작의 흐름도이다. 도 2를 참조하면, 먼저 200 단계에서 사용자의 손 및 스타일러스 펜에 의해 터치 입력이 발생하면, 202 단계에서는 터치 신호를 감지한다. 202 단계에서의 터치 신호의 감지 시, 터치스크린(190)으로부터의 터치 입력이 사용자의 손에 의한 손 터치 입력인지, 스타일러스 펜에 의한 펜 터치 입력인지를 구분할 수 있다.
상기 202 단계의 이후, 204 단계에서는 손 터치 영역 및 펜 터치 영역을 판단한다. 도 3 또는 도 4를 참조하면, 실시예로서, 손 터치 영역(a2) 및 펜 터치 영역(a1)을 확인할 수 있다. 이때의 손 터치 영역(a2) 및 펜 터치 영역(a1)은 실제 인식한 영역에서 미리 설정된 크기만큼 영역을 확장하여 설정한 영역일 수 있다. 또한 터치스크린(190)상에 디스플레이 되어 있는 다른 콘텐츠의 영상들과 구분할 수 있도록 손 터치 영역(a2) 및 펜 터치 영역(a1)에 명암을 주거나 다른 색상으로 표시될 수 있도록 설정할 수 있다. 또한 손 터치 영역(a2) 및 펜 터치 영역(a1)의 판단은 표면 터치(Surface Touch)와 호버링(Hovering)으로 인식할 수 있다.
이후 206 단계에서는 펜 터치 영역(a1) 및 손 터치 영역(a2)에 따라 가려지는 가림 영역을 설정한다. 도 4를 참조하면, 가림 영역(a3)은 휴대용 단말기(100) 사용자의 터치에 의해 가려져서 보이지 않는 영역으로서, 펜 터치 영역(a1) 및 손 터치 영역(a2)을 포함하여 더 넓게 설정되는 영역이다. 즉, 가림 영역(a3)의 설정은 손 터치(a2) 및 펜 터치 영역(a1)에서 미리 설정된 크기만큼 영역을 확장하여 생성하는 것으로서, 손 터치(a2) 및 펜 터치의 영역(a1)을 포함하는 하나의 새로운 영역을 생성하며, 생성한 영역을 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역(a3)으로 설정하는 것이다.
이후, 208 단계는 사용자로부터의 필기 입력 유무를 판단한다. 208 단계에서의 판단에 따라, 사용자로부터의 필기 입력이 있을 때는 209 단계의 입력되는 필기를 디스플레이 하는 동작을 진행하며, 사용자로부터의 필기 입력이 없을 때는 215 단계의 동작인 가림 영역(a3)을 포함하는 미리 설정된 크기의 가상 영역(a4)을 생성하는 동작을 진행한다.
상기 208 단계 이후, 209 단계의 입력되는 필기를 디스플레이 하는 동작이 수행되면, 이후 210 단계에서는 사용자에 의해 입력되는 필기의 방향에 따라 필기 진행 방향을 판단한다.
이후 211 단계에서는 상기 204 단계에서 판단한 펜 터치 및 손 터치 영역에 따라 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단한다. 211 단계의 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 것은 상기 204 단계에서 판단한 손 터치 및 펜 터치 영역의 위치를 비교하여 판단한다. 즉, 펜 터치 영역이 손 터치 영역의 왼쪽에 있으면 사용자의 펜을 잡은 손이 오른쪽 손인 것으로 결정하며, 펜 터치 영역이 손 터치 영역의 오른쪽에 있으면 사용자의 펜을 잡은 손이 왼쪽 손인 것으로 결정한다.
이후 213 단계는 상기 210 단계의 필기 진행 방향 판단과 상기 211 단계의 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지의 판단에 따라, 펜을 잡은 손이 왼쪽 손일 때 필기 진행 방향이 오른쪽인지 또는 펜을 잡은 손이 오른쪽 손일 때 필기 진행 방향이 왼쪽인지를 판단한다. 도 5를 참조하면, 도 5의 (a)와 같이 펜을 잡은 손이 왼쪽 손이고 필기 진행 방향이 오른쪽인 경우와, 도 5의 (b)와 같이 펜을 잡은 손이 오른쪽 손이고 필기 진행 방향이 왼쪽인 경우에는 가려지는 가림 영역(a3)이 발생하는 것을 확인할 수 있다. 즉, 213 단계는 필기 진행 방향과 사용자의 펜을 잡은 손에 따른 가려지는 가림 영역(a3)의 발생 유무를 판단하는 단계라고 할 수 있다.
213 단계의 판단에 따라, 펜을 잡은 손이 왼쪽 손일 때 필기 진행 방향이 오른쪽이거나 또는 펜을 잡은 손이 오른쪽 손일 때 필기 진행 방향이 왼쪽인 경우, 215 단계의 가림 영역을 포함하는 가상 영역을 생성하는 동작을 진행한다. 또한 펜을 잡은 손이 왼쪽 손일 때 필기 진행 방향이 오른쪽이 아니거나 또는 펜을 잡은 손이 오른쪽 손일 때 필기 진행 방향이 왼쪽이 아닌 경우, 219 단계의 터치 입력 종료 유무 판단 동작을 진행한다.
213 단계 이후, 215 단계에서는 가려지는 가림 영역(a3)을 포함하는 미리 설정된 크기의 가상 영역을 생성한다. 도 6의 (a)를 참조하여 215 단계를 상세히 설명하면, 215 단계에서는 가림 영역(a3)에서 미리 설정된 크기만큼 영역을 확장하여 새로운 가상 영역(a4)을 생성한다. 이때의 가상 영역(a4)은 휴대용 단말기(100)의 터치스크린(190)상의 전체 디스플레이 영역의 일부분으로서, 전체 디스플레이 영역의 영상 중에서 변경할 영상의 영역을 설정한 것이다. 또한 가상 영역(a4)의 형태는 도 6의 (a)와 같은 직사각형일 수 있으며, 원형, 타원형 등으로 다양하게 설정될 수 있다.
이후 217 단계에서는 전체 디스플레이 영역에서 가림 영역(a3)을 제외하여 미리 설정된 일정 범위의 영역을 설정하여 변경 영역을 생성하며, 가상 영역(a4)내의 콘텐츠 영상을 변환하여 상기 설정한 변경 영역에 디스플레이 한다. 이때의 변경 영역은 휴대용 단말기(100)의 터치스크린상의 전체 디스플레이 영역의 일부분으로서, 가상 영역(a4)에서 형태를 변경하여 가림 영역(a3)을 포함하지 않도록 새롭게 생성한 영역이며, 가상 영역(a4)내의 콘텐츠 영상이 변환한 후에 디스플레이 되는 영역 이다.
217 단계를 상세히 설명하면, 먼저 215 단계에서 생성한 가상 영역(a4)을 두 영역으로 분할하여 제 1 가상 영역 및 제 2 가상 영역으로 구분한다. 가상 영역(a4)을 분할 할 때의 기준은 펜 영역의 중심, 및 가상 영역(a4)의 중심 등으로 미리 설정할 수 있으며, 분할하는 방향 또는 필기 방향을 고려하여 상하, 좌우 등으로 미리 설정할 수 있다. 제 1 가상 영역 및 제 2 가상 영역으로 구분한 이후, 구분한 가상 영역(a4))에서 일부 형태를 변형하여 변경 영역을 생성한다. 도 6의 (b)를 참조하여 변경 영역을 생성하는 동작을 설명하면, 구분한 제 1 가상 영역에서 제 1 가상 영역 내부의 가림 영역은 제외하며 제 1 가상 영역의 외곽 중에서 분할한 가상의 선과 마주보는 위치의 외곽에 제 1 가상 영역 내부의 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 1 변경 영역(a5)으로 결정한다. 또한 제 2 가상 영역에서 제 2 가상 영역 내부의 가림 영역은 제외하며 제 2 가상 영역의 외곽 중에서 분할한 가상의 선과 마주보는 위치의 외곽에 제 2 가상 영역 내부의 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 2 변경 영역(a6)으로 결정한다.
변경 영역을 생성한 이후, 가상 영역 내의 콘텐츠 영상을 변환하여 변경 영역에 디스플레이 한다. 즉, 제 1 변경 영역(a5)에 제 1 가상 영역 내의 콘텐츠 영상이 디스플레이 될 수 있도록 제 1 가상 영역 내의 콘텐츠 영상을 변환하며, 변환한 제 1 가상 영역 내의 콘텐츠 영상을 제 1 변경 영역(a5)에 디스플레이 한다. 또한 제 2 변경 영역(a6)에 제 2 가상 영역 내의 콘텐츠 영상이 디스플레이 될 수 있도록 제 2 가상 영역 내의 콘텐츠 영상을 변환하며, 변환한 제 2 가상 영역 내의 콘텐츠 영상을 제 2 변경 영역(a6)에 디스플레이 한다. 이때의 가상 영역 내의 콘텐츠 영상 변환을 도 7의 (a) 및 도 7의 (b)를 참조하여 콘텐츠가 텍스트일 경우를 예로 들어 설명하면, 가상 영역 내의 텍스트가 가림 영역 외부에 배치될 수 있도록 형태를 변경하는 영상 변환이다. 이때, 문자 크기 및/또는 행(line)간의 간격은 변화 없이 동일하게 유지할 수 있으며, 이와 반대로 텍스트의 문자 크기 및/또는 행 간격을 변경할 수도 있다. 텍스트의 문자 크기를 변경할 경우, 문자 크기의 변경 비율은 텍스트 행 별로 다르게 적용할 수 있으며, 행 간격을 변경 할 경우, 행 간격의 변경 비율을 다르게 적용할 수도 있다. 또한 이외에도 문자의 기울기도 다르게 표현할 수 있다. 이외에도 일정한 비율 또는 일정하지 않는 비율을 적용하여 콘텐츠 영상의 축소, 이동, 확대, 기울기 변환 등의 다양한 영상 변환을 적용할 수 있다.
또한 217 단계에서의 변경 영역의 생성은 도 6의 (c)와 같은 형태일 수 있다. 도 6의 (c)를 참조하여 변경 영역을 생성하는 동작을 설명하면, 상기 제 1 가상 영역에서 제 1 가상 영역 내부의 가림 영역은 제외하여 제 1 변경 영역(a5)을 생성한다. 또한 제 2 가상 영역에서 제 2 가상 영역 내부의 가림 영역은 제외하여 제 2 변경 영역(a6)을 생성한다. 이외에도 변경 영역의 형태는 물결, 도넛 모양 등과 같이 다양하게 설정될 수 있다. 또한 이때 생성한 변경 영역에 명암을 주거나 다른 색상으로 표시될 수 있도록 미리 설정 할 수 있다.
217 단계 이후, 219 단계에서는 터치 입력의 종료 유무를 판단한다. 217 단계에 판단에 따라, 터치 입력이 종료되었을 경우에는 본 발명의 필기 입력에 따른 콘텐츠 디스플레이 동작을 종료한다. 만약 터치 입력이 계속 될 경우에는 상기 202 단계의 터치 신호 감지 단계로 되돌아가서, 202 단계 이후의 동작들을 반복 수행한다.
상기 208 단계에서부터 213 단계까지는 추가적으로 포함될 수 있는 동작들로서, 필기 입력의 방향에 따라 가림 영역(a3)이 없는 경우에는, 콘텐츠 영상을 변환하는 과정은 실행하지 않도록 설정할 수 있다. 단, 이때의 필기 입력의 방향에 따라 가림 영역(a3)이 없는 경우를 펜을 잡은 손이 오른쪽 손이면서 필기 진행 방향이 오른쪽일 경우, 및 펜을 잡은 손이 왼쪽 손이면서 필기 진행 방향이 왼쪽일 경우로 설정하였다.
또한 217 단계의 변경 영역의 생성을 생략하여 변경 영역의 생성 없이, 상기 가상 영역 내부의 콘텐츠 영상을 변환하여 미리 디스플레이된 콘텐츠 영상과 겹쳐지도록 가림 영역(a3)의 외부에 디스플레이 할 수 있다. 단, 변환한 콘텐츠 영상의 디스플레이의 배경을 반투명하게 변경하거나, 색상을 주어, 미리 디스플레이 되어 있는 콘텐츠 영상과 구분하도록 할 필요가 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
상기와 같이 본 발명의 일 실시예에 따른 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 예를 들어서, 상기 실시예에서는 신체 부위에 의한 터치가 손인 경우와 터치 가능한 입력 수단이 스타일러스 펜인 경우를 예로 들어 설명하였지만, 손 터치는 사용자의 신체에 의한 터치 모두를 포함할 수 있으며, 펜 터치는 터치 가능한 입력 수단에 의한 터치 모두를 포함할 수 있다. 또한 상기 실시예에서는 콘텐츠 영상의 변환에서 콘텐츠가 텍스트인 경우의 콘텐츠 영상 변환을 설명했으나, 이미지와 같이 다양한 영상의 변환도 가능하다. 또한 본 발명의 필기 입력에 따른 콘텐츠 디스플레이 동작의 적용 유무를 선택할 수 있도록 메뉴나 아이콘을 생성함으로서, 상기 본 발명의 동작을 적용하기를 원할 경우, 메뉴나 아이콘을 선택하여 가려지는 콘텐츠 영상을 변환하도록 할 수 있다. 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.

Claims (14)

  1. 필기 입력에 따른 콘텐츠 디스플레이 방법에 있어서,
    터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 및 펜 터치 영역을 판단하며, 상기 판단한 손 터치 및 펜 터치 영역을 포함하는 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 과정과;
    상기 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 상기 가림 영역 내의 콘텐츠 영상이 상기 가림 영역의 외곽에 위치하도록 상기 가상 영역 내의 콘텐츠의 영상을 변환하여 상기 변환한 콘텐츠 영상의 디스플레이를 변경하는 과정을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  2. 제 1항에 있어서, 상기 가림 영역을 설정하는 과정은,
    상기 손 터치 및 펜 터치의 영역을 포함하는 미리 설정된 크기의 영역을 생성하며, 상기 생성한 영역을 상기 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역으로 설정하는 단계를 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  3. 제 1항에 있어서, 상기 가림 영역을 설정하는 과정은,
    입력되는 필기를 디스플레이하며, 상기 입력되는 필기의 필기 진행 방향에 따라 상기 필기 진행 방향을 판단하는 단계와,
    상기 손 터치 및 펜 터치 영역의 판단 결과에 따라, 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 단계와,
    상기 필기 진행 방향을 판단하는 단계와 상기 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 단계의 결과에 따라 상기 콘텐츠 영상의 디스플레이를 변경하는 과정의 실행 유무를 결정하는 단계를 추가적으로 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  4. 제 3항에 있어서, 상기 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 단계는,
    상기 판단한 손 터치 및 펜 터치 영역의 위치를 비교하여, 상기 펜 터치 영역이 상기 손 터치 영역의 왼쪽에 있으면 상기 사용자의 펜을 잡은 손이 오른쪽 손인 것으로 결정하며, 상기 펜 터치 영역이 상기 손 터치 영역의 오른쪽에 있으면 상기 사용자의 펜을 잡은 손이 왼쪽 손인 것으로 결정하는 것을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  5. 제 3항에 있어서, 상기 콘텐츠 영상의 디스플레이를 변경하는 과정의 실행 유무를 결정하는 단계는,
    상기 사용자의 펜을 잡은 손이 왼쪽 손일 때 상기 판단한 필기 진행 방향이 오른쪽이거나 또는 상기 사용자의 펜을 잡은 손이 오른쪽 손일 때 상기 판단한 필기 진행 방향이 왼쪽이면 상기 콘텐츠 영상의 디스플레이를 변경하는 과정을 실행하며,
    상기 사용자의 펜을 잡은 손이 왼쪽 손일 때 상기 판단한 필기 진행 방향이 왼쪽이거나 또는 상기 사용자의 펜을 잡은 손이 오른쪽 손일 때 상기 판단한 필기 진행 방향이 오른쪽이면 상기 콘텐츠 영상의 디스플레이를 변경하는 과정을 실행하지 않는 것을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  6. 제 1항에 있어서, 상기 콘텐츠 영상의 디스플레이를 변경하는 과정은,
    상기 가상 영역을 두 영역으로 분할하여 제 1 가상 영역 및 제 2 가상 영역으로 구분하는 단계와,
    상기 제 1 가상 영역에서 상기 제 1 가상 영역 내부의 상기 가림 영역은 제외하며, 상기 제 1 가상 영역의 외곽 중에서 분할한 가상의 선과 마주보는 위치의 외곽에 상기 제 1 가상 영역 내부의 상기 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 1 변경 영역으로 결정하며, 상기 제 2 가상 영역에서 상기 제 2 가상 영역 내부의 상기 가림 영역은 제외하며, 상기 제 2 가상 영역의 외곽 중에서 분할한 상기 가상의 선과 마주보는 위치의 외곽에 상기 제 2 가상 영역 내부의 상기 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 2 변경 영역으로 결정하며,
    상기 제 1 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 1 변경 영역에 디스플레이 하며, 상기 제 2 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 2 변경 영역에 디스플레이 하는 단계를 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  7. 제 1항에 있어서, 상기 콘텐츠 영상의 디스플레이를 변경하는 과정은,
    상기 가상 영역을 두 영역으로 분할하여 제 1 가상 영역 및 제 2 가상 영역으로 구분하는 단계와,
    상기 제 1 가상 영역에서 상기 제 1 가상 영역 내부의 상기 가림 영역은 제외하여 제 1 변경 영역을 생성하며, 상기 제 2 가상 영역에서 상기 제 2 가상 영역 내부의 상기 가림 영역은 제외하여 상기 제 2 변경 영역을 생성하며,
    상기 제 1 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 1 변경 영역에 디스플레이 하며, 상기 제 2 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 2 변경 영역에 디스플레이 하는 단계를 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 방법.
  8. 필기 입력에 따른 콘텐츠 디스플레이 장치에 있어서,
    사용자의 조작을 입력받는 버튼 및 물리적 또는 가상의 키패드를 포함하는 입/출력 모듈과;
    사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 하는 터치스크린과;
    상기 기능부들을 총괄적으로 제어하며, 상기 터치스크린상의 터치 입력의 발생 시, 신체 부위에 의한 터치 신호의 손 터치 신호 및 터치 가능한 입력 수단에 의한 터치 신호의 펜 터치 신호를 감지하여, 상기 손 터치 및 펜 터치 영역을 판단하며, 상기 판단한 손 터치 및 펜 터치 영역을 포함하는 상기 터치스크린 상에 미리 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역을 설정하는 영역 설정부와, 상기 영역 설정부에서 설정한 상기 가림 영역을 포함하는 미리 설정된 크기의 가상 영역을 생성하며, 상기 가상 영역 내의 콘텐츠의 영상을 변환하며 상기 변환한 콘텐츠 영상의 디스플레이를 변경하는 영상 변경부를 포함하는 제어부를 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  9. 제 8항에 있어서, 상기 영역 설정부는,
    상기 손 터치 및 펜 터치의 영역을 포함하는 미리 설정된 크기의 영역을 생성하며, 상기 생성한 영역을 상기 디스플레이 되어 있는 콘텐츠가 가려지는 가림 영역으로 설정하는 동작을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  10. 제 8항에 있어서, 상기 영역 설정부는,
    입력되는 필기를 디스플레이하며, 상기 입력되는 필기의 필기 진행 방향에 따라 상기 필기 진행 방향을 판단하는 동작과,
    상기 손 터치 및 펜 터치 영역을 판단하는 동작의 결과에 따라, 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 동작, 및
    상기 필기 진행 방향을 판단하는 동작과 상기 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 동작에 따라 상기 영상 변경부의 동작 실행 유무를 결정하는 동작의 실행을 추가적으로 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  11. 제 10항에 있어서, 상기 사용자의 펜을 잡은 손이 왼쪽 손인지 오른쪽 손인지를 판단하는 동작은,
    상기 판단한 손 터치 및 펜 터치 영역의 위치를 비교하여, 상기 펜 터치 영역이 상기 손 터치 영역의 왼쪽에 있으면 상기 사용자의 펜을 잡은 손이 오른쪽 손인 것으로 결정하며, 상기 펜 터치 영역이 상기 손 터치 영역의 오른쪽에 있으면 상기 사용자의 펜을 잡은 손이 왼쪽 손인 것으로 결정하는 동작을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  12. 제 10항에 있어서, 상기 영상 변경부의 동작 실행 유무를 결정하는 동작은,
    상기 사용자의 펜을 잡은 손이 왼쪽 손일 때 상기 판단한 필기 진행 방향이 오른쪽이거나 또는 상기 사용자의 펜을 잡은 손이 오른쪽 손일 때 상기 판단한 필기 진행 방향이 왼쪽이면 상기 영상 변경부의 동작을 실행하며,
    상기 사용자의 펜을 잡은 손이 왼쪽 손일 때 상기 판단한 필기 진행 방향이 왼쪽이거나 또는 상기 사용자의 펜을 잡은 손이 오른쪽 손일 때 상기 판단한 필기 진행 방향이 오른쪽이면 상기 영상 변경부의 동작을 실행하지 않는 것을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  13. 제 8항에 있어서, 상기 영상 변경부의 동작은,
    상기 가상 영역을 두 영역으로 분할하여 제 1 가상 영역 및 제 2 가상 영역으로 구분하는 동작과,
    상기 제 1 가상 영역 내부의 상기 가림 영역은 제외하며, 상기 제 1 가상 영역에서 상기 제 1 가상 영역의 외곽 중에서 분할한 가상의 선과 마주보는 위치의 외곽에 상기 제 1 가상 영역 내부의 상기 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 1 변경 영역으로 결정하며, 상기 제 2 가상 영역에서 상기 제 2 가상 영역 내부의 상기 가림 영역은 제외하며, 상기 제 2 가상 영역의 외곽 중에서 분할한 상기 가상의 선과 마주보는 위치의 외곽에 상기 제 2 가상 영역 내부의 상기 가림 영역과 동일하거나 또는 유사한 형태의 영역을 생성하여 제 2 변경 영역으로 결정하며,
    상기 제 1 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 1 변경 영역에 디스플레이 하며, 상기 제 2 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 2 변경 영역에 디스플레이 하는 동작을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
  14. 제 8항에 있어서, 상기 영상 변경부의 동작은,
    상기 가상 영역을 두 영역으로 분할하여 제 1 가상 영역 및 제 2 가상 영역으로 구분하는 동작과,
    상기 제 1 가상 영역에서 상기 제 1 가상 영역 내부의 상기 가림 영역은 제외하여 제 1 변경 영역을 생성하며, 상기 제 2 가상 영역에서 상기 제 2 가상 영역 내부의 상기 가림 영역은 제외하여 상기 제 2 변경 영역을 생성하며,
    상기 제 1 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 1 변경 영역에 디스플레이 하며, 상기 제 2 가상 영역 내의 콘텐츠 영상을 변환하여 상기 제 2 변경 영역에 디스플레이 하는 동작을 포함함을 특징으로 하는 필기 입력에 따른 콘텐츠 디스플레이 장치.
KR1020120115450A 2012-10-17 2012-10-17 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치 KR20140049324A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120115450A KR20140049324A (ko) 2012-10-17 2012-10-17 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120115450A KR20140049324A (ko) 2012-10-17 2012-10-17 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20140049324A true KR20140049324A (ko) 2014-04-25

Family

ID=50654962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120115450A KR20140049324A (ko) 2012-10-17 2012-10-17 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20140049324A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017116216A1 (ko) * 2015-12-31 2017-07-06 삼성전자 주식회사 스마트 데스크탑 및 스마트 단말에 기반한 컨텐츠 표시 방법
CN107977112A (zh) * 2016-10-25 2018-05-01 乐金显示有限公司 触摸显示装置、有源笔、触摸***、触摸电路和笔识别方法
CN112650357A (zh) * 2020-12-31 2021-04-13 联想(北京)有限公司 一种控制方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017116216A1 (ko) * 2015-12-31 2017-07-06 삼성전자 주식회사 스마트 데스크탑 및 스마트 단말에 기반한 컨텐츠 표시 방법
CN106933465A (zh) * 2015-12-31 2017-07-07 北京三星通信技术研究有限公司 一种基于智能桌面的内容显示方法和智能桌面终端
CN106933465B (zh) * 2015-12-31 2021-01-15 北京三星通信技术研究有限公司 一种基于智能桌面的内容显示方法和智能桌面终端
US11221745B2 (en) 2015-12-31 2022-01-11 Samsung Electronics Co., Ltd. Method for displaying contents on basis of smart desktop and smart terminal
CN107977112A (zh) * 2016-10-25 2018-05-01 乐金显示有限公司 触摸显示装置、有源笔、触摸***、触摸电路和笔识别方法
US10963107B2 (en) 2016-10-25 2021-03-30 Lg Display Co., Ltd. Touch display device, active pen, touch system, touch circuit, and pen recognition method
CN107977112B (zh) * 2016-10-25 2021-07-16 乐金显示有限公司 触摸显示装置、有源笔、触摸***、触摸电路和笔识别方法
US11513641B2 (en) 2016-10-25 2022-11-29 Lg Display Co., Ltd. Touch display device, active pen, touch system, touch circuit, and pen recognition method
CN112650357A (zh) * 2020-12-31 2021-04-13 联想(北京)有限公司 一种控制方法及装置

Similar Documents

Publication Publication Date Title
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
US9323446B2 (en) Apparatus including a touch screen and screen change method thereof
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
US20150169080A1 (en) Electronic device using auxiliary input device and operating method thereof
KR101990567B1 (ko) 외부 입력 장치와 결합된 모바일 장치 및 그 제어 방법
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140076261A (ko) 펜을 이용한 사용자 인터페이스 제공 단말 및 방법
KR20140000572A (ko) 모바일 장치에서의 메뉴 표시 장치 및 방법
KR20140064089A (ko) 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치
KR102156617B1 (ko) 터치키 동작의 제어 방법 및 장치
KR102186815B1 (ko) 컨텐츠 스크랩 방법, 장치 및 기록매체
US20150002417A1 (en) Method of processing user input and apparatus using the same
US9261996B2 (en) Mobile terminal including touch screen supporting multi-touch input and method of controlling the same
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
US10146342B2 (en) Apparatus and method for controlling operation of an electronic device
KR102115727B1 (ko) 하이브리드 위젯을 제공하는 모바일 장치 및 그 제어 방법
KR20140049324A (ko) 필기 입력에 따른 콘텐츠 디스플레이 방법 및 장치
KR20140068585A (ko) 터치스크린에서 손 터치와 펜 터치의 구별 방법 및 장치
KR20140123325A (ko) 색상 채우기 효과 적용 방법 및 장치
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102278676B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20130123794A (ko) 메모용 어플리케이션
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination