KR20160034685A - 전자장치에서 객체 입력 방법 및 장치 - Google Patents

전자장치에서 객체 입력 방법 및 장치 Download PDF

Info

Publication number
KR20160034685A
KR20160034685A KR1020140125966A KR20140125966A KR20160034685A KR 20160034685 A KR20160034685 A KR 20160034685A KR 1020140125966 A KR1020140125966 A KR 1020140125966A KR 20140125966 A KR20140125966 A KR 20140125966A KR 20160034685 A KR20160034685 A KR 20160034685A
Authority
KR
South Korea
Prior art keywords
input
electronic device
schedule
display
data
Prior art date
Application number
KR1020140125966A
Other languages
English (en)
Inventor
김건수
전용준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140125966A priority Critical patent/KR20160034685A/ko
Priority to US14/860,070 priority patent/US20160085424A1/en
Priority to EP15186199.4A priority patent/EP2998855A1/en
Priority to CN201510608595.3A priority patent/CN105446523A/zh
Publication of KR20160034685A publication Critical patent/KR20160034685A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 개시는 전자 장치에 관한 것으로, 다양한 실시 예에 따르면 객체를 입력하는 방법 및 그 전자 장치에 관한 것이다.
본 발명의 일 실시 예에 따른 방법은,전자장치에서 객체를 입력하기 위한 방법으로, 어플리케이션을 통해 객체가 입력될 시 입력된 객체를 해석하는 동작; 상기 객체를 해석한 결과에 대응하여 표시된 데이터 중 적어도 일부를 확대하여 표시하는 동작; 및 상기 확대된 영역에 새로운 객체를 표시하는 동작;을 포함할 수 있다.

Description

전자장치에서 객체 입력 방법 및 장치{METHOD AND APPARATUS FOR INPUTTING OBJECT IN A ELECTRONIC DEVICE}
본 개시는 전자 장치에 관한 것으로, 다양한 실시 예에 따르면 객체를 입력하는 방법 및 그 전자 장치에 관한 것이다.
이동통신 기술이 발전함에 따라 이동통신이 가능한 다양한 전자장치들이 개개인의 필수 통신 장치로 사용되고 있다. 이러한 전자장치는 이동통신 기술을 기반으로 하는 음성 통신 기능뿐만 아니라 다양한 기능을 수행할 수 있도록 탑재되어 사용되고 있다. 전자장치들에서 음성 통신 기능 이외에 수행되는 기능들을 예를 들어 살펴보면, 카메라 기능, 객체 통신 기능, 동영상 재생 기능, 오디오 재생 기능, 메신저 기능, 일정관리 기능, 알람 기능 등의 다양한 부가 기능들이 제공되고 있다.
이처럼 전자장치에서 다양한 기능을 수행하게 됨에 따라 전자장치의 입력 방식 또한 다양화되고 있다. 전자장치의 가장 기본적인 입력 방식은 하드웨어적인 키를 이용한 키 입력 방식이다. 단말기에 입력 방식은 하드웨어적인 키 입력 방식에서 터치패드 방식으로 전환되고 있다. 이는 사용자의 편리성을 향상시키고 UX(User eXperience)에 근접하여 보다 편리한 서비스들을 제공할 수 있게 되었다.
최근에는 터치패드 방식에서 더 나아가 펜을 이용한 입력 방식들이 제공되는 단말기들이 출시되고 있다. 이와 같은 펜을 이용한 입력을 통해 보다 사용자에게 편리한 UX를 제공할 수 있으며, 펜을 이용하여 사용자가 자유롭게 문자, 기호, 도형, 그림 등을 입력할 수 있는 장치 및 방법들이 제공되고 있다.
이러한 전자장치에서 화면에 사용자가 직접 입력하는 객체(예, 터치, 호버링 또는 펜을 사용하여 입력되는 객체)는 화면의 크기에 비례하므로, 사용자가 입력할 수 있는 내용 또는 양이 한정되는 문제점이 있다. 또한 전자장치에서 많은 객체를 입력해야 하는 경우에는 보다 대형 화면을 필요로 하지만, 단말기의 화면의 크기가 한정되어 있어 많은 내용을 입력하기 어려운 문제가 있다.
따라서 본 개시의 다양한 실시 예에서는 사용자가 객체를 직접 입력하는 경우 사용자의 편의성을 증대시킬 수 있는 방법 및 장치를 제공할 수 있다.
본 개시의 다양한 실시 예에서는 사용자가 객체를 직접 입력하는 경우 보다 많은 양의 객체를 입력할 수 있는 방법 및 장치를 제공할 수 있다.
본 개시의 다양한 실시 예에서는 사용자가 객체를 직접 입력하는 경우 사용자가 입력한 그림 객체를 전자장치의 스케줄에 동기화시킬 수 있는 방법 및 장치를 제공할 수 있다.
본 개시의 다양한 실시 예에서는 전자장치에서 사용자가 화면에 직접 입력한 객체를 관리하기 위한 방법 및 장치를 제공할 수 있다.
본 개시의 다양한 실시 예에서는 전자장치에서 제한된 영역에서 추가로 입력할 수 있는 방법 및 장치를 제공할 수 있다.
본 발명의 실시 예에 따른 방법은, 전자 장치에서 객체를 입력하기 위한 방법으로, 어플리케이션을 통해 객체가 입력될 시 입력된 객체를 해석하는 동작; 상기 객체를 해석한 결과에 대응하여 표시된 데이터 중 적어도 일부를 확대하여 표시하는 동작; 및 상기 확대된 영역에 새로운 객체를 수신하여 표시하는 동작;을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 장치는, 어플리케이션의 동작 및 객체를 표시하기 위한 디스플레이; 상기 어플리케이션 데이터 및 사용자가 입력한 객체 데이터를 저장하기 위한 메모리; 사용자로부터 객체 데이터를 수신하기 위한 입출력 인터페이스; 및 상기 어플리케이션이 구동된 상태에서 상기 입출력 인터페이스를 통해 객체가 입력될 시 입력된 객체를 해석하여 상기 표시부에 표시된 데이터 중 적어도 일부를 확대하도록 제어하고, 상기 입출력 인터페이스를 통해 상기 확대된 영역의 데이터로 새로운 객체를 수신할 시 상기 디스플레이에 표시하도록 제어하는 프로세서;를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 방법 및 장치를 전자장치에 적용하면, 사용자가 객체를 직접 입력하는 경우 사용자의 편의성을 증대시킬 수 있으며, 보다 많은 양의 객체를 입력할 수 있다.
또한 본 발명의 다양한 실시 예에 따른 방법 및 장치를 전자장치에 적용하면, 사용자가 객체를 직접 입력하는 경우 사용자가 입력한 그림 객체를 전자장치의 스케줄에 동기화시킬 수 있으며, 사용자가 화면에 직접 입력한 객체를 관리할 수 있다.
뿐만 아니라 본 발명의 다양한 실시 예에 따른 방법 및 장치를 전자장치에 적용하면, 전자장치에서 제한된 영역에서 추가로 정보를 입력할 수 있다.
도 1은 다양한 실시 예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 다양한 실시 예들에 따른 전자 장치의 블록도를 도시한다.
도 3은 다양한 실시 예들에 따른 복수의 전자 장치들 사이의 통신 프로토콜을 도시한다.
도 4는 본 발명의 다양한 실시 예에 따라 단말기에서 입력된 객체를 인식하는 방법을 나타낸 순서도이다.
도 5는 본 발명의 다양한 실시 예에 따른 객체 입력 동작을 설명하기 위한 제어 흐름도이다.
도 6은 본 발명의 다양한 실시 예에 따라 월별 스케줄링 테이블에 객체들이 입력된 형태를 예로써 도시한 도면이다.
도 7은 본 발명의 다양한 실시 예에 따라 스케줄링 데이터의 상세 데이터 입력 팝업 창을 예시한 도면이다.
도 8은 본 발명의 다양한 실시 예에 따라 전자장치에서 중요 스케줄을 입력한 상태의 UI 도면을 일 예로 도시하였다.
도 9는 본 발명의 다양한 실시 예에 따라 손 글씨 입력을 중요 스케줄로 인식하는 다양한 실시 예를 나타낸 UI 도면이다.
도 10은 본 발명의 다양한 실시 예에 따라 손 글씨 입력을 중요 스케줄로 인식하는 다른 실시 예를 나타낸 UI 도면이다.
도 11a 및 도 11b는 본 발명의 다양한 실시 예에 따라 단말기에서의 입력 객체를 인식하는 일 상태를 나타낸 UI도면이다.
도 12는 본 발명의 다양한 실시 예에 따라 전자장치에서 입력 객체를 호출하는 일 상태를 나타낸 UI도면이다.
도 13은 본 발명의 다른 실시 예에 따라 전자장치에 범위 지정 객체가 입력될 시 해당 범위의 스케줄 범위를 확대하는 방법을 나타낸 도면이다.
도 14는 본 발명의 또 다른 실시 예에 따라 전자장치에 객체 입력을 위해 특정한 영역을 확대한 경우의 예시도이다.
도 15는 본 발명의 다양한 실시 예에 따라 전자장치에 객체 입력을 위한 표시의 전환 예를 도시한 도면이다.
도 16은 본 발명의 다양한 실시 예에 따라 전자장치의 객체 입력 및 확인에 대한 방법을 도시한 도면이다.
도 17은 본 발명의 다양한 실시 예에 따라 전자장치의 입력된 객체를 화면에 표시하기 위한 방법을 도시한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시 예에서 사용될 수 있는"포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 "또는" 또는 " A 또는/및 B 중 적어도 하나" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B" 또는 " A 또는/및 B 중 적어도 하나" 각각은, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 사용된 "제 1,", "제2,", "첫째," 또는 "둘째," 등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 기능 이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능 을 갖춘 스마트 가전제품(smart home appliance)일 수 있다. 스마트 가전제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync ™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능 을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하면, 상기 전자 장치 101은 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150 및 통신 인터페이스 160을 포함할 수 있다.
상기 버스 110은 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 120은, 예를 들면, 상기 버스 110을 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 150 또는 상기 통신 인터페이스 160 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다. 이러한 프로세서는 이하의 설명에서 설명의 편의를 위해 "제어부"로 불릴 수도 있음에 유의해야 한다. 또한 제어부는 특정한 동작을 위한 응용 프로그램 또는 제어 데이터가 구동되는 상태가 될 수 있다.
본 발명의 다양한 실시 예에 따른 프로세서 120은 전자장치 101의 제어에 필요한 각종 동작에 대응한 제어를 수행할 수 있다. 예컨대, 프로세서 120은 전자장치 101이 무선 통신을 수행하는 경우 무선 통신을 위한 제어를 수행할 수 있으며, 사용자의 입력에 대응한 특정한 동작이 이루어지는 경우 사용자의 입력에 대응한 동작 수행을 위한 제어를 수행할 수 있다. 가령, 사용자가 전자장치 101에 손 글씨를 입력하는 경우 프로세서 120은 사용자 입력을 입출력 인터페이스 140을 통해 수신하고, 이에 대응하여 디스플레이 150에 표시하도록 제어할 수 있으며, 저장이 요청될 시 해당 데이터를 메모리 130의 특정 영역에 저장하도록 제어할 수 있다.
예컨대, 프로세서 120은 본 발명의 다양한 실시 예에 따라 손 글씨가 입력될 시 입력되는 손 글씨에 대응하여 디스플레이 150에 표시되도록 제어할 수 있으며, 입력된 데이터의 저장이 요구될 시 메모리 130의 소정 영역에 저장할 수 있다.
한 실시 예에 따르면, 프로세서 120은 손 글씨를 OCR 인식하는 경우면, 스케줄 영역과 대응하는 스케줄 내용을 인식한다. 스케줄 영역은 폐곡선 또는 폐곡선에 가까운 도형, 화살표, 괄호, 또는 기타 범위를 한정하는 기호 등을 스케줄 영역으로 인식한다. 또한, 프로세서 120은 날짜에 마크된 “v, O, ㅁ, ☆, ※” 등의 도형이나, 기호 등도 스케줄 영역으로 인지할 수 있다.
한 실시 예에 따르면, 프로세서 120은 스케줄 영역에 마크된 기호 중 “v, ☆, ※”가 표시된 영역(날짜)의 기간을 중요 스케줄로 인식할 수 있다. 그리고 제어부 160은 스케줄 영역에 마크된 기호 중 폐곡선 또는 폐쇄형 다각형의 한 예로, “O, ㅁ”처럼 원형, 사각형과 같은 형태로 범위로 묶여 있다면, 표시된 영역(날짜)의 기간을 일반 스케줄로 인식할 수 있다.
프로세서 120은 스케줄 영역에 대응하여 입력된 스케줄 내용을 이미지 또는 OCR 인식한 문자 형태로 대응하여 스케줄로 처리할 수 있다. 이때 OCR로 인식된 문자와 함께 손 글씨 입력된 원본 그림 이미지도 함께 대응하여 저장할 수 있다. 프로세서 120은 스케줄 영역이 입력되면, 대응하여 스케줄 내용을 입력할 수 있는 창을 확대하여 표시하도록 제어할 수 있다. 이때 디스플레이 150에 표시되는 창은 사용자가 입출력 인터페이스 140에 터치 제스처를 이용하여 줌인(zoom in)과 같은 확대하는 동작으로 원하는 크기로 늘리거나, 사용자의 인터렉션(interaction)에 대응하여 1차 확대된 크기 또는 전체 화면으로 확대된 크기로 표시할 수 있다. 확대된 화면은 해당 스케줄 영역을 그대로 확대하여 보여주며, 확대된 영역에 스케줄을 손 글씨를 통해 입력할 수 있다. 다른 예로, 프로세서 120은 디스플레이 150에 표시되는 스케줄 영역의 크기를 유지하되, 해당 스케줄 영역 이외의 영역이 어둡게 표시되거나, 또는 반투명하게 표시되도록 제어할 수 있다. 이때, 프로세서 120은 이와 같이 표시된 전체 화면 상에 입출력 인터페이스 140을 통해 손 글씨가 입력되면, 입력된 손 글씨를 해당하는 스케줄 영역과 매칭하여 저장하도록 제어할 수 있다.
한편, 프로세서 120은 입출력 인터페이스 140의 오디오 출력 장치를 통해 스케줄이 임박하였음을 알려주거나, 또는 해당 스케줄이 도래하였음을 비퍼음, 멜로디 또는 기 설정된 음악 등을 출력하도록 제어할 수 있다.
상기 메모리 130은, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 150 또는 상기 통신 인터페이스 160 등)로부터 수신되거나 상기 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130은, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 어플리케이션 134가 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션 134 중 적어도 하나의 어플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케줄링 또는 로드 밸런싱)를 수행할 수 있다.
상기 API 133은 상기 어플리케이션 134가 상기 커널 131 또는 상기 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션 134는 상기 전자 장치 101과 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101과 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션 134는 상기 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134는 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134는 건강관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 어플리케이션 134는 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
또한 메모리 130은 전자장치 101에서 특정한 동작을 수행하기 위한 각종 제어 데이터와 사용자 편의에 따른 데이터를 저장하는 영역을 가질 수 있다. 여기서 제어 데이터는 어플리케이션 데이터가 될 수 있으며, 사용자 편의에 따른 데이터는 사용자가 입력하거나 또는 저장을 원하는 데이터 또는 네트워크를 통해 수신된 데이터가 될 수 있다. 또한 메모리 130은 본 발명의 다양한 실시 예에 따라 손 글시 모드에서 입력된 손 글씨를 특정한 문자로 인식하여 저장하거나 또는 입력된 이미지를 그대로 저장할 수 있다. 손 글씨 모드에서 메모리 130에 저장되는 데이터는 스케줄 영역에 대응하여 저장할 수 있다.
또한, 메모리 130은 스케줄 어플리케이션의 설정에 따라 알람 정보, 팝업 정보 및 대응하는 스케줄에 따른 기타 설정 등을 저장할 수 있다. 예컨대, 메모리 130은 입력된 스케줄이 중요한 스케줄인 경우 대응하는 스케줄 내용을 스케줄과 매칭하여 저장할 수 있다. 이때, 메모리 130에 저장되는 데이터는 중요 스케줄에 대응하는 색, 크기, 글자체 등으로 저장할 수 있다.
상기 입출력 인터페이스 140은, 입출력 장치(예: 센서, 키보드 또는 터치스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 또는 상기 통신 인터페이스 160에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 터치스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 120로 제공할 수 있다. 또한, 상기 입출력 인터페이스 140은, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 또는 상기 통신 인터페이스 160으로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 상기 프로세서 120을 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
입출력 인터페이스 160은 키 입력 장치(미도시) 또는/및 OCR 또는/및 OMR 또는/및 터치 센서 또는/및 펜 센서 또는/및 근거리 입력 센서 등의 다양한 형태의 입력장치로 구현할 수 있다. 입출력 인터페이스 160은 이러한 다양한 형태의 입력 장치들로부터 사용자 입력에 대응한 신호를 수신하고, 수신된 신호를 디지털 데이터로 변환하여 프로세서 120으로 제공할 수 있다.
또한 입출력 인터페이스 160은 전자장치 100에서 입력 또는 출력되는 각종 오디오 신호의 처리를 수행하기 위한 구성을 포함할 수 있다. 예컨대, 오디오를 출력하기 위한 구성(예: 스피커 등)을 포함할 수 있다.
상기 디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)를 표시할 수 있다. 이러한 디스플레이 150은 또한 전자장치 101의 상태 또는 동작이 이루어지는 상태를 사용자에게 그래픽 또는 문자 또는 각종 아이콘 등의 다양한 형태로 표시할 수 있다. 또한 디스플레이 150은 본 발명에 따라 사용자가 입력하는 손 글씨 형태를 표시할 수 있다. 이러한 디스플레이 150은 LCD, LED, OLED 등의 다양한 형태로 구현할 수 있다.
상기 통신 인터페이스 160은 상기 전자 장치 101과 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다. 통신 인터페이스 160을 통해 송수신되는 데이터는 음성, 영상, 객체 등 다양한 형태의 데이터가 될 수 있다.
한 실시 예에 따르면, 상기 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 상기 전자 장치 101과 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 상기 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
한 실시 예에 따르면, 상기 서버 106은 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치의 블록도를 도시한다.
상기 전자 장치 201은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있다. 도 2를 참조하면, 상기 전자 장치 201은 하나 이상의 어플리케이션 프로세서(AP: application processor) 210, 통신 모듈 220, SIM(subscriber identification module) 카드 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 및 모터 298을 포함할 수 있다.
상기 AP 210은 운영체제 또는 응용 프로그램을 구동하여 상기 AP 210에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 210은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 220(예: 상기 통신 인터페이스 160)은 상기 전자 장치 201(예: 상기 전자 장치 201)과 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 상기 통신 모듈 220은 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227, NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
상기 셀룰러 모듈 221은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 221은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 224)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈 221은 상기 AP 210이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 221은 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시 예에 따르면, 상기 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 221은, 예를 들면, SoC로 구현될 수 있다. 도 2에서는 상기 셀룰러 모듈 221(예: 커뮤니케이션 프로세서), 상기 메모리 230 또는 상기 전력관리 모듈 295 등의 구성요소들이 상기 AP 210과 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP 210이 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 221)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, 상기 AP 210 또는 상기 셀룰러 모듈 221(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 210 또는 상기 셀룰러 모듈 221은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈 223, 상기 BT 모듈 225, 상기 GPS 모듈 227 또는 상기 NFC 모듈 228 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 221에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 223에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 229는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 229는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 229는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 및 NFC 모듈 228이 하나의 RF 모듈 229를 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 224는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 224는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 230(예: 상기 메모리 130)은 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 상기 내장 메모리 232는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 상기 내장 메모리 232는 Solid State Drive(SSD)일 수 있다. 상기 외장 메모리 234는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 234는 다양한 인터페이스를 통하여 상기 전자 장치 201과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 상기 전자 장치 201은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 240은 물리량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 240은, 예를 들면, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, color 센서 240H(예: RGB(red, green, blue) 센서), 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파(ultrasonic) 입력 장치 258을 포함할 수 있다. 상기 터치 패널 252는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 252는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 252는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 252는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 254는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 256은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 258은 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 201에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 상기 전자 장치 201은 상기 통신 모듈 220을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 260(예: 상기 디스플레이 150)은 패널 262, 홀로그램 장치 264 또는 프로젝터 266을 포함할 수 있다. 상기 패널 262는, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 262는, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 262는 상기 터치 패널 252와 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 264는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 266은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이 260은 상기 패널 262, 상기 홀로그램 장치 264, 또는 프로젝터 266을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 270은, 예를 들면, HDMI(high-definition multimedia interface) 272, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276 또는 D-sub(D-subminiature) 278을 포함할 수 있다. 상기 인터페이스 270은, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 270은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 280은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스 140에 포함될 수 있다. 상기 오디오 모듈 280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 291은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬(flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 295는 상기 전자 장치 101의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 295는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 296은 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 101에 전원을 공급할 수 있다. 상기 배터리 296은, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 297은 상기 전자 장치 201 혹은 그 일부(예: 상기 AP 210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 298은 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 201은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시 예들에 따른 복수의 전자 장치들 사이의 통신 프로토콜을 도시한다.
도 3을 참조하면, 예를 들어, 상기 통신 프로토콜 300은, 장치 발견 프로토콜(device discovery protocol) 351, 기능 교환 프로토콜(capability exchange protocol) 353, 네트워크 프로토콜(network protocol) 355 및 어플리케이션 프로토콜(application protocol) 357 등을 포함할 수 있다.
한 실시 예에 따르면, 상기 장치 발견 프로토콜 351은 전자 장치들(예: 전자 장치 101 또는 전자 장치 104)이 자신과 통신 가능한 외부 전자 장치를 감지하거나 감지된 외부 전자 장치와 연결하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 101은, 상기 장치 발견 프로토콜 351을 이용하여, 상기 전자 장치 101에서 사용 가능한 통신 방법(예: Wifi, BT 또는 USB 등)을 통해, 상기 전자 장치 101과 통신 가능한 기기(device)로, 전자 장치 104를 감지할 수 있다. 상기 전자 장치 101은, 상기 전자 장치 104와의 통신 연결을 위해, 상기 장치 발견 프로토콜 351을 이용하여, 감지된 전자 장치 104에 대한 식별 정보를 획득하여 저장할 수 있다. 상기 전자 장치 101은, 예를 들면, 적어도 상기 식별 정보에 기반하여, 상기 전자 장치 104와의 통신 연결을 개설할 수 있다.
어떤 실시 예에 따르면, 상기 장치 발견 프로토콜 351은 복수의 전자 장치들 사이에서 상호 인증을 하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 101은 적어도 전자 장치 104와 연결을 위한 통신 정보(예: MAC(media access control) address, UUID(universally unique identifier), SSID(subsystem identification), IP(internet protocol) address)에 기반하여, 상기 전자 장치 101과 상기 전자 장치 104 간의 인증을 수행할 수 있다.
한 실시 예에 따르면, 상기 기능 교환 프로토콜 353은 전자 장치 101 또는 전자 장치 104 중 적어도 하나에서 지원 가능한 서비스의 기능과 관련된 정보를 교환하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 101 및 전자 장치 104는 상기 기능 교환 프로토콜 353을 통하여, 각각이 현재 제공하고 있는 서비스의 기능과 관련된 정보를 서로 교환할 수 있다. 교환 가능한 정보는 전자 장치 101 및 전자 장치 104에서 지원 가능한 복수의 서비스들 중에서 특정 서비스를 가리키는 식별 정보를 포함할 수 있다. 예를 들어, 전자 장치 101은 상기 기능 교환 프로토콜 353을 통해 전자 장치 104로부터 상기 전자 장치 104가 제공하는 특정 서비스의 식별 정보를 수신할 수 있다. 이 경우, 전자 장치 101은 상기 수신된 식별 정보에 기반하여, 상기 전자 장치 101이 상기 특정 서비스를 지원할 수 있는지 여부를 판단할 수 있다.
한 실시 예에 따르면, 상기 네트워크 프로토콜 355는 통신이 가능하도록 연결된 전자 장치들(예: 전자 장치 101, 전자 장치 104) 간에, 예컨대, 서비스를 연동하여 제공하기 위하여 송수신 되는, 데이터 흐름을 제어하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 101 또는 전자 장치 104 중 적어도 하나는 상기 네트워크 프로토콜 355를 이용하여, 오류 제어, 또는 데이터 품질 제어 등을 수행할 수 있다. 추가적으로 또는 대체적으로, 상기 네트워크 프로토콜 355는 전자 장치 101과 전자 장치 104 사이에서 송수신되는 데이터의 전송 포맷을 결정할 수 있다. 또한, 전자 장치 101 또는 전자 장치 104 중 적어도 하나는 상기 네트워크 프로토콜 355를 이용하여 상호간의 데이터 교환을 위한 적어도 세션(session)을 관리(예: 세션 연결 또는 세션 종료)할 수 있다.
한 실시 예에 따르면, 상기 어플리케이션 프로토콜 357은 외부 전자 장치로 제공되는 서비스와 관련된 데이터를 교환하기 위한, 절차 또는 정보를 제공하기 위한 프로토콜일 수 있다. 예를 들어, 전자 101은 상기 어플리케이션 프로토콜 357을 통해 전자 장치 104(또는 서버 106)로 서비스를 제공할 수 있다.
한 실시 예에 따르면, 상기 통신 프로토콜 300은 표준 통신 프로토콜, 개인 또는 단체에서 지정한 통신 프로토콜(예: 통신 장치 제조업체 또는 네트워크 공급 업체 등에서 자체적으로 지정한 통신 프로토콜) 또는 이들의 조합을 포함할 수 있다.
본 발명의 다양한 실시 예에 사용된 용어 "모듈"은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 122)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 130이 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서210에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
OCR(Optical Character Reader, 광학 문자 판독기)은 빛을 이용해 문자를 판독하는 장치로 종이에 인쇄되거나 손으로 쓴 문자, 기호, 마크 등에 빛을 비추어 그 반사 광선을 전기 신호로 바꾸어 컴퓨터에 입력하는 장치다. OCR은 보통 세금이나 공공요금 고지서나 영수증에 많이 사용된다. 광문자 인식은 특수한 판독 장치를 이용하기도 하지만 흔히 소형 광 스캐너와 전용의 소프트웨어를 사용해서 한다. OCR 기법에는 유형정합(pattern matching)과 획분석법(stroke analysis method)이 잘 알려져 있으나, 최근에는 손으로 쓴 문자인식과 같은 기법을 사용하는 예가 늘어나고 있다. OCR은 읽은 문자와 이미 저장되어 있는 문자의 비교를 통해 판독한다. OCR의 판독특성 때문에 쓴 문자를 인식하는 데 약간의 오류가 존재한다는 단점이 있다.
OMR(Optical Mark Reader, 광학 기호 판독기)은 광학식 마크 독해장치. 컴퓨터 등에서 데이터의 입력 작업을 간편화하기 위한 장치, 바코드나 마크시트(mark sheet)등 특정부호를 독해할 수 있다. OCR가 문자를 광학적으로 독해하는 장치인데 반해서 OMR는 특정부호를 광학적으로 독해하는 장치이다. 상품종류를 표시하기 위해서 사용되고 있는 바코드, 시험의 해답용지 등에 사용되고 있는 마크시트를 독해하는 것도 OMR이다.
한 실시 예에 따르면, 본 발명에 따른 장치는, 문자 또는 그래픽을 표시하는 디스플레이; 어플리케이션 또는 사용자가 입력한 객체 데이터를 저장하기 위한 메모리; 사용자로부터 상기 객체 데이터를 수신하기 위한 입출력 인터페이스; 및 상기 입출력 인터페이스로부터 상기 디스플레이에 표시된 데이터 중 일부의 범위 지정 및 지정된 범위의 확대를 요청하는 객체 입력 시 상기 지정된 범위를 확대하여 상기 디스플레이에 표시되도록 제어하고, 상기 입출력 인터페이스로부터 상기 확대된 영역에 객체가 입력될 시 상기 입력된 객체를 상기 디스플레이에 표시하도록 제어하며, 상기 입력된 객체의 저장이 요청될 시 상기 지정된 범위에 상기 입력된 객체를 함께 상기 메모리에 저장하도록 제어하는 프로세서;를 포함할 수 있다.
한 실시 예에 따르면, 본 발명에 따른 장치의 상기 프로세서는, 상기 입출력 인터페이스로부터 상기 저장된 객체의 확대가 요청될 시 새로운 레이어를 형성하여 상기 디스플레이에 표시 중인 데이터의 상위 레이어로 표시하도록 제어할 수 있다.
한 실시 예에 따르면, 본 발명에 따른 장치의 상기 프로세서는, 상기 입출력 인터페이스로부터 상기 디스플레이에 표시된 상기 새로운 레이어에 추가 객체가 입력될 시 상기 입력된 객체를 상기 디스플레이에 표시하도록 제어하고, 상기 입력된 객체의 저장이 요구될 시 상기 입력된 객체를 상기 저장된 데이터에 추가하여 상기 메모리에 저장하도록 제어할 수 있다.
한 실시 예에 따르면, 본 발명에 따른 장치의 상기 프로세서는, 미리 설정된 도형, 화살표, 기호, 폐곡선, 폐쇄형 다각형의 객체 입력 중 어느 하나로 입력 시 상기 범위 지정으로 식별할 수 있다.
한 실시 예에 따르면, 본 발명에 따른 장치에서 상기 디스플레이에 표시된 데이터는, 스케줄, 캘린더, 메모 또는 시간이 연관된 데이터가 될 수 있다.
도 4는 본 발명의 다양한 실시 예에 따라 단말기에서 입력된 객체를 인식하는 방법을 나타낸 순서도이다.
도 4를 참조하면, 400동작에서 전자장치 101은 대기상태를 수행한다. 한 실시 예에 따르면, 대기상태란, 응용 프로그램 또는 어플리케이션이 구동되지 않으면서 사용자 입력 또는 특정한 객체의 입력을 대기하는 상태일 수 있다. 어떤 실시 예에 따르면, 전자장치 101의 대기상태는 특정한 어플리케이션 또는 응용프로그램이 구동되어 사용자가 입력하는 특정한 객체의 입력을 대기하는 상태일 수 있다. 예컨대, 스케줄링 어플리케이션이 구동된 상태 또는 특정한 메모 또는 사용자의 수기 입력 상태 등 여러 가지 형태의 응용 프로그램이 구동된 상태일 수 있다.
이처럼 대기상태에서, 전자장치 101의 프로세서 120은 402동작에서 입출력 인터페이스 140을 통해 사용자 입력이 존재하는가를 검사할 수 있다. 사용자의 입력은 다양한 형태의 입력이 가능하다. 예컨대, 전자장치 101에 구비된 키(미도시)의 입력, 사용자의 터치 입력, 호버링 입력, 근접 센서(미도시) 또는 모션 센서(미도시)에 의거한 사용자의 제스처 입력, 특정한 카메라(미도시)를 이용한 사진 또는 동영상의 입력 등 다양한 입력이 될 수 있다.
프로세서 120은 402동작의 검사결과 사용자 입력이 존재하지 않는 경우 400동작의 대기상태를 유지한다. 반면에 402동작의 검사결과 사용자 입력이 존재하는 경우 프로세서 120은 404동작에서 입출력 인터페이스 140을 통해 입력된 사용자 입력이 객체 입력인가 또는 객체 입력을 위한 선택인가를 검사한다. 이하의 설명에서 객체 입력이란, 특정한 입력 방식 예컨대, 사용자의 신체의 일부 또는 펜 등을 이용한 객체의 입력을 의미할 수 있다. 여기서 신체의 일부를 이용한 입력은 직접적인 터치 입력, 호버링(hovering) 입력 등이 될 수 있으며, 펜의 입력은 일반적인 펜 또는 특정한 기능을 갖는 전자펜 또는 전용펜 등이 될 수 있다. 또한 객체 입력을 위한 선택은 특정한 영역에 대하여 객체 입력을 위해 표시의 변경 예컨대, 확대 또는 축소가 요구되는 경우를 포함할 수 있다.
프로세서 120은 404동작의 검사결과 객체의 입력이 있는 경우 또는 객체 입력을 위한 표시의 변경이 요구된 경우 408동작으로 진행하고, 상기한 두 가지 중 어느 경우에도 해당하지 않는 경우 406동작으로 진행하여 사용자 입력에 대응한 동작을 수행한다. 예컨대, 406동작은 객체 입력을 위한 표시의 변경이 요구되는 경우를 제외한 사용자의 키 입력 또는 객체 입력 인식을 수행하지 않는 상태에서 터치 입력 또는 터치엔 드래그 입력 등의 다양한 형태의 입력들이 될 수 있다. 프로세서 120은 208동작으로 진행하면, 객체 입력에 대응한 동작을 수행한다. 408동작에서의 객체 입력 동작은 도 5를 참조하여 더 상세히 살펴보기로 한다.
도 5는 본 발명의 다양한 실시 예에 따른 객체 입력 동작을 설명하기 위한 제어 흐름도이다.
프로세서 120은 500동작에서 입력된 객체를 해석하고, 해석된 객체를 표시할 수 있다.
한 실시 예에 따르면, 입력된 객체를 해석하는 동작은 입력된 객체를 해석한 결과 입력된 객체가 특정한 범위를 지정하는 경우 프로세서 120은 해당하는 범위에 새로운 객체 입력의 편의성을 증대시키기 위해 해당 영역을 확대하여 표시하도록 제어할 수 있다. 이때, 범위 입력은 다양한 형태를 취할 수 있다. 예컨대, 폐곡선, 폐쇄형 다각형 또는 각 국가별 또는 관습에서 사용되는 범위를 지정하는 형태 등이 될 수 있다. 폐곡선의 경우를 예로써 살펴보면, 동그라미, 타원, 일그러진 형태의 원형 등이 될 수 있으며, 폐쇄형 다각형의 경우를 예로써 살펴보면, 삼각형, 사각형, 오각형, 육각형, 별 모양 등이 될 수 있다. 또한 관습적으로 사용되는 범위 지정의 방법을 예로써 살펴보면, 어떠한 특정 위치부터 다른 특정한 위치까지를 지시하기 위해 "<---->"와 같은 형태가 사용될 수 있으며, 시작점부터 특정한 위치까지를 지시하기 위해 "---->" 또는 "<----"와 같은 형태가 사용될 수도 있다.
또 다른 예로, 사용자에 의해 입력된 입력이 스케줄 영역을 지정하는 객체는 스케줄 영역의 지정하는 기호는 숫자를 지정하고 해당 숫자를 이동하는 직선(□->) 등이 될 수 있다. 프로세서 120은 폐곡선(□, □) 혹은, 폐곡선에 가까운 개곡선(⊂, ∪, ⊃, ∩) 및 외 괄호 기호( {, }, [, ], (, ), ... )를 특정한 영역을 지정하는 기호로 사용할 수도 있다. 그 밖에 각 지역 또는 국가별 또는 민족별로 범위를 지정하기 위한 다양한 방법들이 존재할 수 있으며, 본 발명의 다양한 실시 예들에서는 이들에 대한 제한을 두지 않는다.
한 실시 예에 따르면, 입력된 객체를 해석한 결과 소정 영역에 사용자의 필기(예 : 손 글씨) 입력인 경우 프로세서 120은 해당 영역에서 사용자로 하여금 객체 입력의 편의성을 증대시키기 위해 해당하는 영역을 확대하여 표시하도록 제어할 수 있다. 가령, 특정한 일자에 스케줄을 저장하고자 하는 경우 해당 일자에 객체 입력이 존재하면, 프로세서 120은 객체가 입력된 일자에 해당하는 영역을 확대할 수 있다.
500동작에서 입력된 객체를 해석하고, 해석된 객체를 표시한 후 프로세서 120은 502동작으로 진행하여 디스플레이 150에 해당 데이터를 표시한 상태에서 입출력 인터페이스 140로부터 사용자 입력을 대기한다.
502동작에서 사용자 입력을 대기하는 상태에서 프로세서 120은 입출력 인터페이스 140으로부터 특정한 입력을 검출할 수 있다. 가령 508동작의 줌 인/아웃(zoom in/out)의 검출 또는 512동작의 객체 입력 유무 검출 또는 516동작의 입력 취소 검출 또는 520동작의 저장 요청 입력 유무 등이 될 수 있다.
먼저 504동작의 검사결과 입출력 인터페이스 140로부터 줌 인/아웃이 검출된 경우 프로세서 120은 506동작으로 진행하여 표시된 영역의 축소/확대 상태를 변경한다. 예컨대, 특정한 영역이 선택되고, 선택된 영역이 소정의 크기만큼 확대되어 디스플레이 150에 표시된 상태에서 줌 인 입력이 검출되면, 확대된 영역을 축소하여 표시한다. 반대로 특정한 영역이 선택되고, 선택된 영역이 소정의 크기만큼 확대되어 디스플레이 150에 표시된 상태에서 줌 아웃 입력이 검출되면, 확대된 영역을 보다 확대하여 표시한다. 이때 축소/확대는 줌 인/아웃의 이동 거리에 대응하여 축소/확대가 이루어질 수 있다.
한 실시 예에 따르면, 508동작의 검사결과 입출력 인터페이스 140로부터 범위 강조를 요구하는 입력 신호가 수신되는 경우 프로세서 120은 510동작에서 사용자로부터 입력되는 신호에 대응하여 선택된 특정 영역 또는 선택을 위한 입력에 대응하여 범위를 강조하기 위한 동작을 수행할 수 있다. 예컨대, 스케줄링 상에서 특정한 일자가 폐곡선 또는 폐쇄형 다각형의 형태로 선택되고, 해당 일자의 범위 강조에 대응한 입력이 존재하는 경우 프로세서 120은 510동작에서 사용자 입력에 대응하여 선택된 일정에 대하여 범위를 강조할 수 있다. 이를 월별로 표시된 스케줄링 테이블에서의 입력을 가정하여 살펴보기로 하자. 입출력 인터페이스 140로부터 수신된 객체가 특정 일자에 검정색 동그라미 표시를 한 상태에서 해당 객체의 강조가 요구되는 경우 프로세서 120은 사용자의 요구에 대응하여 동그라미의 색상을 다른 색상으로 변경하거나 또는 해당 일자의 영역을 다른 색으로 변경하거나 표시 상태를 사용자에게 보다 인지하기 용이한 형태로 변경할 수 있다. 이처럼 특정한 일자 또는 일정(기간)에 강조가 요구된 경우 프로세서 120은 디스플레이 150에 해당 일자 또는 일정(기간)의 표시 상태를 변경하여 표시한 후 502동작으로 진행할 수 있다.
이를 다시 설명하면, 프로세서 120은 손 글씨로 입력된 스케줄 영역을 인식 시에, 스케줄 영역으로 인식된 손 글씨가 입력될 시 범위를 지정하는 색상이 일반적인 색상과 다른 색(예: 빨간색) 또는 특수 기호를 사용한 경우, 중요 이벤트로 스케줄에 등록할 수 있다. 예컨대, 색을 입력하는 팔레트 어플리케이션(palette application)을 호출하고 흑색 이외의 색을 선택한 후 스케줄 영역을 손 글씨로 입력하면, 중요 스케줄로 인식할 수 있다. 스케줄 영역이 설정된 것으로 판단되면, 해당 스케줄이 등록된 일자의 표시를 스케줄이 등록되지 않은 일자의 표시와 달리하여 표시할 수 있다. 예를 들어, OCR 또는 OMR을 통해 "v ※, ☆"와 같은 도형 또는 기호가 포함된 것으로 인식되거나, 또는 스케줄 내용 내에서 문자로 인식된 것 이외의 도형이나 기호가 포함된 경우에 중요 스케줄로 등록할 수 있다. 또한, 일반 스케줄과 중요 스케줄을 구분하여 표시할 수 있다. 예컨대, 일반 스케줄이 설정된 경우면, 스케줄 영역이 설정되지 않은 날짜 영역과 색을 달리하여 구성하고, 중요 스케줄은 역상으로 표시하거나, 돌출 또는 함몰시켜 보여지도록 표시하는 것 중 적어도 어느 하나로 나타낼 수 있다.
또한 프로세서 120은 중요 데이터와 일반 데이터를 구분하여 알람을 제공할 수도 있고, 중요 스케줄인 경우에만 알람이 울리도록 입출력 인터페이스 140의 오디오 출력을 위한 구성을 제어할 수 있다.
한 실시 예에 따르면, 512동작의 검사결과 입출력 인터페이스 140로부터 객체 입력이 검출되면, 프로세서 120은 514동작에서 사용자 입력에 대응하여 입력된 객체를 디스플레이 150에 표시할 수 있다. 예컨대, 사용자는 입출력 인터페이스 140로 사용자의 신체 또는 소정의 기구(전자 펜 또는 펜)를 이용하여 특정한 문자, 기호, 숫자 또는 그림 등의 다양한 객체를 입력할 수 있다. 이처럼 특정한 객체가 입력될 시 프로세서 120은 입력된 객체를 디스플레이 150에 표시하도록 제어하고, 302동작으로 진행할 수 있다.
한 실시 예에 따르면, 516동작의 검사결과 입출력 인터페이스 140로부터 입력 취소를 요구하는 사용자 입력이 검출될 시 프로세서 120은 518동작에서 입력된 객체를 제거할 수 있다. 가령, 사용자가 특정한 문자, 기호, 숫자 또는 그림 등을 입력한 상태에서 입력 취소를 요구하는 입력 신호가 검출될 시 사용자가 입력한 객체를 디스플레이 150 상에서 제거한 후 302동작으로 진행할 수 있다.
도 5의 실시 예에서는 516동작에서 입력 취소 요구가 검출될 시 518동작으로 진행하는 경우만을 도시하였으나, 516동작과 같이 입력 취소가 요구될 시 도 5의 루틴을 종료하도록 구성할 수도 있다. 또 다른 방법으로 516동작에서 입력 취소 요구가 검출될 시 이전 입력의 존재 유무에 따라 서로 다른 동작을 수행하도록 구성할 수 있다. 예컨대, 프로세서 120은 516동작의 입력 취소가 요구될 시 입출력 인터페이스 140로부터 특정한 입력이 존재하는 것으로 검사된 경우 해당 입력을 순차적으로 제거하도록 하고, 아무런 입력이 존재하지 않는 상태에서 516동작의 입력 취소가 요구될 시 도 5의 루틴을 종료하도록 구성할 수도 있다.
한 실시 예에 따르면, 520동작의 검사결과 입출력 인터페이스 140로부터 저장을 요구하는 사용자 입력이 검출될 시 프로세서 120은 522동작에서 사용자가 입력한 객체들을 해당하는 응용 프로그램에 매핑하여 저장할 수 있다. 가령, 응용 프로그램이 스케줄링 입력인 경우 사용자가 입력한 객체를 해당하는 스케줄 일정에 저장할 수 있다. 이때 스케줄 일정은 하루 이상 또는 한 시간 이상 또는 10분 이상 또는 1분 이상 등과 같이 사용자가 설정할 수 있는 스케줄링 입력에 창(미도시)의 형태에 따라 구분될 수 있다. 이에 대하여는 후술되는 도면들을 참조하여 더 상세히 살펴보기로 하자.
도 6은 본 발명의 다양한 실시 예에 따라 월별 스케줄링 테이블에 객체들이 입력된 형태를 예로써 도시한 도면이다.
도 6을 참조하면, 서로 다른 4가지 형태의 스케줄링 일정을 예시하고 있다. 첫째 참조부호 601은 3월 5일부터 3월 8일까지가 하나로 묶인 일정을 예시하고 있으며, 둘째 참조부호 603은 3월 13일의 일정이 예시되어 있고, 셋째 참조부호 605는 3월 15일부터 3월 16일까지의 일정이 예시되어 있고, 마지막으로 참조부호 607은 3월 26일의 일정이 예시되어 잇다.
그러면 첫 번째 일정인 3월 5일 내지 3월 8일의 일정에 대하여 살펴보기로 하자. 3월 5일부터 3월 8일까지는 앞서 예시한 바와 같이 서로 다른 날짜들이 폐쇄형 다각형 601의 형태를 통해 하나의 일정으로 묶여 있는 상태일 수 있다. 여기서 폐쇄형 다각형 601은 하나의 객체 입력이 될 수 있다. 또한 3월 5일부터 3월 8일까지의 하단에 기재된 내용은 사용자가 신체의 일부 또는 특정한 기구를 이용하여 입력한 객체가 될 수 있다. 앞서 설명한 바와 같이 신체의 일부를 이용한 입력은 사용자가 직접 터치하여 입력하는 터치 입력, 직접적인 터치가 이루어지지 않는 호버링(hovering) 입력 또는 사용자의 제스처 등 다양한 형태가 될 수 있다. 또한 특정한 기구는 앞서 설명한 바와 같이 일반적인 펜 또는 특정한 기능을 갖는 전자 펜 등이 될 수 있다.
도 6의 예시에서는 "첨기연 - TRIZ"와 같이 한글과 영어 약자로 입력된 스케줄 데이터를 OMR 또는 OCR로 인식하여 스케줄에 추가할 수 있다. 이때, 스케줄은 스케줄 영역과 스케줄 내용을 포함한다.
두 번째 일정인, 3월 13일은 폐곡선 603을 이용하여 하루만 특정한 일정을 표시한 경우를 예시하였다. 이처럼 3월 13일에 동그라미 형태의 폐곡선 603을 이용하여 특정한 일정을 선택한 경우가 될 수 있으며, 또한 앞서 설명한 바와 같이 폐곡선도 하나의 객체 입력이 될 수 있다. 또한 3월 13일의 일정의 하단에 사용자가 신체의 일부 또는 특정한 기구를 이용하여 객체(예: 손 글씨)를 입력할 수 있다. 도 6에서 두 번째 일정은 "직발 접수 마지막 날"의 한글을 손 글씨 형태로 입력한 경우를 예시하였으며, 앞서 설명한 바와 같이 스케줄 데이터는 OMR 또는 OCR로 인식하여 스케줄에 추가할 수 있다.
세 번째 일정인, 3월 15일부터 3월 16일까지 "<-->" 형태의 양방향 화살표405로 스케줄 영역을 예시하였다. 세 번째 일정인 3월 15일부터 3월 16일까지의 양방향 화살표 605가 하나의 객체가 될 수 있으며, 하나의 객체로 인식된 양방향 화살표를 통해 3월 15일과 3월 16일이 하나의 일정으로 묶일 수 있다. 도 6에서 세 번째 일정은 "가족여행"의 한글을 손 글씨 형태로 입력한 경우를 예시하였으며, 앞서 설명한 바와 같이 스케줄 데이터는 OMR 또는 OCR로 인식하여 스케줄에 추가할 수 있다.
마지막으로 참조부호 607이 표시되어 있는 3월 26일에는 특정한 스케줄 일정들만이 표시되어 있으며, 일정의 내용 중 다른 일자들이 표시되어 있는 상태이다. 이처럼 연속하지 않은 특정한 날짜들이 입력되는 경우 날짜에 대한 데이터를 인식하여 해당 일정에 동일한 내용의 스케줄 정보를 기재할 수 있다. 예컨대, 3월 26일에 기재된 "UT"의 정보가 4월 10일과 4월 20일 및 5월 13일의 일정에 각각 추가되어 기재되도록 할 수도 있다.
이상에서 설명한 바와 같이 도 6의 마지막으로 참조부호 607이 표시되어 있는 예시에서는 3월 26일의 일정과 같이 특정한 스케줄 데이터가 해당하는 일정 내부에 만 표시 및 입력될 수도 있고, 3월 13일의 일정과 같이 해당하는 일정과 다른 날도 함께 표시 및 입력될 수도 있다.
본 발명의 다양한 한 실시 예에 따르면, 스케줄상에 입력된 데이터는 캘린더 특성에 따라 입력될 수 있는 공한이 제한적이기 때문에 입력한 객체를 축소하여 표시할 수도 있다. 따라서 도 6에 예시된 3월 13일 및 3월 26일의 일정으로 입력된 데이터는 사용자가 실제 입력한 객체를 축소하여 표시한 데이터일 수도 있다. 만일 3월 13일 및 3월 26일의 일정으로 입력된 데이터를 축소하여 표시하지 않는 경우 다른 입력 공간을 고려하여 입력된 객체의 일부만이 일정에 표시될 수도 있다. 가령, 3월 13일의 일정 데이터에 사용자가 입력한 첫 번째 문자인 '직'의 글자와 두 번째 문자인 '발'의 일부만이 표시될 수도 있다. 만약 일정 데이터로 입력된 전체 객체를 확인하고자 하는 경우는 해당 일자의 전체 일정 데이터를 확대하여 확인할 수 있다. 사용자의 입력을 받아 확대되는 경우 여러 개의 레이어로 구성될 수 있으며, 상위 레이어와 하위 레이어 등으로 구분될 수도 있다. 예를 들어, 해당 일자의 전체 일정 데이터가 확대될 시 스케줄 테이블은 하위 레이어가 될 수 있다. 서로 다른 2개 이상의 레이어 형태로 표시되는 경우 서로 다른 형태로 구성하여 디스플레이 할 수 있다. 예를 들어, 확대된 일정 데이터의 레이어를 투명하게 또는 반투명하게 또는 불투명하게 등 다양한 형태로 구성할 수 있다. 뿐만 아니라 사용자가 확대되어 표시되는 스케줄 데이터를 보다 효과적으로 인지할 수 있도록 다양한 효과를 추가할 수 있다. 예컨대, 음영 효과를 제공하거나 하이라이트 효과를 제공하거나 돋움 형태 등 다양한 효과를 추가할 수 있다.
본 발명의 다양한 한 실시 예에 따르면, 도 6에 예시된 3월 13일 및 3월 26일의 일정으로 입력된 데이터는 사용자가 실제 입력한 객체를 축소하여 표시한 데이터일 수도 있다. 만일 3월 13일 및 3월 26일의 일정으로 입력된 데이터를 축소하여 표시하지 않고 모두 표시하는 경우 다른 일자의 영역에 중첩되어 표시될 수도 있다. 이때, 중첩되어 표시되는 객체들을 표시하는 레이어는 투명한 레이어로 구성하여 스케줄 데이터의 일자가 사용자에게 보여지도록 구성할 수 있다. 반대로 중첩되어 표시되는 객체들을 표시하는 레이어를 불투명한 레이어로 구성하여 스케줄 데이터의 일자가 사용자에게 보이지 않도록 구성할 수도 있다.
도 6에 도시된 스케줄 영역에 대응하는 각각의 스케줄 내용은 OMR 또는/및 OCR로 처리되며, 그 내용은 하기의 <표 1>과 같은 형식으로 저장될 수 있다.
Figure pat00001
위에 예시한 <표 1>에 있어서, 스케줄 내용의 지정된 칸 안에 들어가는 문자로 인식된 문자가 날짜(4월 10일, 4월 20일, 5월 13일)인 경우 앞서 설명한 바와 같이 해당하는 날짜의 스케줄 영역에 등록할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따라 스케줄링 데이터의 상세 데이터 입력 팝업 창을 예시한 도면이다.
도 7에 예시한 스케줄링 데이터의 상세 데이터 입력 팝업창 500은 전자장치 101에 설정된 다양한 방법들을 통해 팝업 되도록 설정할 수 있다. 본 발명의 다양한 실시 예에 따르면, 스케줄링 테이블에서 특정한 일자를 미리 설정된 시간보다 긴 시간 동안 터치하는 경우 또는 전용펜의 특정한 기능을 이용하여 터치하는 경우 또는 특정한 일자를 선택하고, 메뉴 등을 이용하여 보다 상세한 일정의 표시를 요청하는 경우 등 다양한 경우를 통해서 팝업창을 띄울 수 있다.
위와 같은 경우들 중 어느 한 경우에 상세 일정 팝업창 700이 디스플레이 150에 팝업되면, 사용자는 해당 영역을 선택하여 정보를 입력할 수 있다. 가령 팝업창 700의 "Reminder" 영역 701은 해당 스케줄을 사용자에게 알려주는 선택사항을 선택할 수 있도록 할 수 있다. 예컨대, "Reminder"는 알람의 설정일 수 있다. 또한 "Location" 영역 703은 해당 스케줄이 발생하는 장소를 사용자가 직접 입력할 수 있도록 한다. "Description" 영역 705는 OCR을 통해 인식한 내용인 "첨기연 - TRIZ"를 문자 인식 방법 등과 같은 다양한 형태의 인식 방법을 통해 인식된 문자를 표시할 수 있다. 따라서 "Description" 영역 705는 OCR을 통해 인식된 문자 정보가 틀리거나, 누락된 경우 사용자가 수정하거나, 새로 입력할 수 있다.
"Image" 영역 707은 저장된 원본 손 글씨를 이미지 형태로 저장할 수 있다. "image" 영역 707에서는 사용자의 손 글씨로 입력된 글씨가 텍스트로 저장될 수도 있고, 손 글씨 그대로 저장될 수 있음을 보여줄 수 있다. 만약 사용자가 손 글씨로 입력한 글자가 텍스트로 변환되어 인식된 글자가 명확하지 않은 경우, 사용자는 "Image"영역의 원본 손 글씨를 확인함으로써, 원본 손 글씨 입력을 확인할 수 있다. 예컨대, 도 6을 참조하면, 사용자는 3월 5일 내지 3월 8일의 스케줄 내용에서 OCR을 통해 인식된 문자가 "R"인지 또는 "e"인지의 여부를 확인할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따라 전자장치에서 중요 스케줄을 입력한 상태의 UI 도면을 일 예로 도시하였다.
도 8을 참조하면, 14일의 숫자에 점선의 원형 801이 표시되어 있는 경우를 예시하였다. 앞서 설명한 바에 따르면, 폐곡선, 폐쇄형 다각형 등의 형태만을 설명하였으나, 도 8에 예시한 바와 같이 특정한 날의 일정 또는 특정한 기간의 일정을 점선을 이용한 곡선 또는 점선을 이용한 다각형의 형태를 취하도록 구성할 수도 있다. 따라서 도 8에 예시한 바와 같이 점선으로 형성된 원형 601 또한 하나의 객체가 될 수 있으며, 점선으로 형성된 원형 801은 일자를 선택하거나 범위를 지정하는 형태가 될 수 있다.
또한 하단에 기재된 "갤노트3 언팩"의 내용은 앞서 설명한 바와 같이 사용자의 선택에 의해 색상을 변경할 수 있다. 가령, 사용자가 입력하는 글자의 색상이 검정색 또는 붉은 색 또는 청색 등과 같이 다양한 색상을 갖도록 구성할 수 있다.
또한 "갤노트3 언팩"이라는 손 글씨는 14일을 넘어 15일 및 16일에 걸쳐 표시되어 있다. 이전의 설명에서는 해당하는 일자의 하단에만 스케줄 데이터를 입력한 형태를 예시하였다. 따라서 스케줄 데이터의 위치만으로 살펴보면, 사용자가 입력한 손 글씨의 데이터만으로 판단하면, 14일부터 16일까지이거나 또는 일부의 오차 범위를 허용하더라도 14일부터 15일까지의 일정으로 판단할 수도 있다. 하지만, 점선으로 표시한 특정한 일자를 선택하는 객체와 함께 기재된 데이터인 경우 14일에 저장된 데이터가 될 수 있다. 반대로 점선으로 일정을 표시하는 경우 해당 일부터 특정한 다른 날까지 일정을 입력하도록 미리 설정되어 있다면, 도 8의 일정은 14일부터 16일까지 또는 입력 범위의 +/- 오차 범위를 가지며, 마지막 손 글씨인 "팩"의 글자가 16일의 범위를 침범하지 않는 것으로 인정할만한 오차 범위 내인 경우 14일부터 15일까지의 스케줄링 범위를 가질 수도 있다.
또한 앞서 설명한 바와 같이 "갤노트3 언팩"이라는 문자는 OCR 또는 OMR을 통해 인식된 이미지로부터 가져온 문자일 수 있다. 이처럼 인식된 이미지는 도 5에서 설명한 바와 같이 특정한 일정 예컨대, 14일의 스케줄링 정보로 매핑되어 저장될 수 있다.
본 발명에 다양한 실시 예에 따르면, 해당하는 스케줄이 중요한 스케줄 데이터인 경우 중요 스케줄에 대응하는 글자 색, 글자 크기 또는 글씨체를 달리하거나 해당하는 날짜의 테이블 자체 색상을 달리하거나, 역상으로 표시하거나, 돌출 또는 함몰시켜 보여지는 등 다양한 디스플레이 방법으로 달리하여 표시할 수 있다.
도 9는 본 발명의 다양한 실시 예에 따라 손 글씨 입력을 중요 스케줄로 인식하는 다양한 실시 예를 나타낸 UI 도면이다.
도 9를 참조하면, 프로세서 120은 손 글씨로 입력된 스케줄 영역을 인식함에 있어서, 스케줄 영역으로 인식된 손 글씨 입력이 예를 들면, 적어도 2회 이상 반복된 패턴 901이 검출되면, 중요 스케줄로 판단하여 일반 스케줄과 구분되어 표시되도록 제어할 수 있다. 예컨대, 프로세서 120은 중요 스케줄로 판단되면, 입력되는 오브젝트의 글자색 또는 글씨체 또는 글씨 크기를 달리하여 나타내거나 저장할 수 있다. 또한, 대응하여 “와이프 생일”이라고 OMR 또는 OCR로 인식한 오브젝트를 통한 스케줄 내용의 색을 달리하거나, 역상으로 표시하고, 돌출 또는 함몰시켜 보여지도록 표시하는 것 중 적어도 어느 하나를 적용하여 표시할 수 있다.
본 발명의 다양한 실시 예에 따르면, 프로세서 120은 날짜에 표기되는 ○, □, ☆ 과 같은 폐곡선을 이루는 도형을 OMR로 인식하여 특정 날짜에 대하여 범위가 지정되었다고 해석할 수 있다. 또한 프로세서 120은 범위를 지정하는 동작이 예를 들면, 적어도 2회 이상 반복적이거나, 범위를 지정하는 색상이 일반적인 색상(예를 들어, 흑색 또는 흑색과 유사한 계열의 색)과 다른 색인 경우로 판단되면, 중요 이벤트로 스케줄에 등록시킬 수 있다. 날짜에 표기되는 기호 및 강조된 범위에 따라서는 중요 스케줄 표시로 인지하고 대응하여 알람을 설정할 수 있다. 예컨대, 날짜에 “☆”모양이 마크된 것으로 판단되면, 중요 스케줄로 표시되고, 대응하는 날짜 및 시간에 맞춰 알람을 출력하거나, 해당 스케줄의 날짜 또는 시간의 일정 시간 이전 또는 정확한 시간에 맞춰 팝업창을 표시할 수 있다.
도 10은 본 발명의 다양한 실시 예에 따라 손 글씨 입력을 중요 스케줄로 인식하는 다른 실시 예를 나타낸 UI 도면이다.
도 10을 참조하면, 25일의 날짜에서는 일반적인 원형이 마크 1001되어 있지만, 구체적 스케줄 중에 ☆ 1002가 표시된 경우면 중요 스케줄로 설정할 수 있다. 또는 추가적으로 손 글씨로 ☆ 1002가 입력된 것으로 인지하면 OCR 또는 OMR로 인지된 오브젝트를 통한 구체적 스케줄 내용을 일반적인 스케줄 내용에서 중요 스케줄 내용으로 수정하여 표시할 수 있다. 예컨대, 도 10에서 ☆ 1002가 추가적으로 삽입된 경우, 구체적 스케줄인 “장모님 생신”을 중요 스케줄로 변경하고, 역상으로 나타나도록 하여 사용자가 쉽게 구분할 수 있도록 설정할 수 있다.
도 11a 및 도 11b는 본 발명의 다양한 실시 예에 따라 단말기에서의 입력 객체를 인식하는 일 상태를 나타낸 UI도면이다.
도 11a 및 도 11b를 참조하면, (a)에서부터 (b), (c)로의 순차적인 변화와 (a)에서부터 (d), (e)로의 순차적인 변화를 설명할 수 있다. 먼저 도 11a를 참조하면, (a)에 예시된 바와 같이 2013년 3월의 달력을 스케줄 테이블로 표시한 상태가 스케줄 테이블을 최초 표시한 상태가 될 수 있다. 이러한 상태에서 (b)에 예시한 바와 같이 참조부호 1111과 같이 특정한 날짜인 3월 12일을 선택하여 원형과 함께 화살표 마크 1112를 표시하면, (c)와 같이 표시가 변경될 수 있다. 즉, (c)에 예시한 바와 같이 해당 일자의 입력 창 1113을 확대하여 다른 날짜의 위에 중첩되도록 스케줄 입력 창을 확대할 수 있다. 따라서 사용자는 손 글씨 1113을 해당하는 영역에 입력할 수 있다.
도 11b를 참조하면, (a)에 예시한 바와 같이 2013년 3월의 달력을 스케줄 테이블로 표시한 상태가 스케줄 테이블을 최초 표시한 상태에서 12일의 날짜를 선택하면, (d)에 예시한 바와 같이 1120과 같이 해당하는 일자의 영역이 확대되며, 이후 (e)에 예시한 바와 같이 사용자의 입력에 기반하여 확대된 영역에 좀 더 많은 글자의 스케줄을 1121과 같이 입력할 수 있다.
디스플레이 150의 크기가 5인치(inch)의 크기를 갖는 경우, 캘린더의 각 일자별 영역은 예를 들어, 0.5인치(inch) 안팎의 작은 크기로 표시될 수밖에 없어 손 글씨로는 입력이 어려울 수 있다. 따라서 사용자의 입력에 따라 범위 지정된 날짜 영역을 확대시켜서 입력의 편의성을 높이고 좁은 공간 안에서 입력할 수 있는 스케줄 내용의 범위를 늘려줄 수 있다. 또한 확대된 영역은 앞서 설명한 바와 같이 사용자의 입력에 기반하여 추가적인 확대 또는 축소가 가능하다. 만일 특정 일자를 추가로 확대하고자 하는 경우 디스플레이 150의 최대 크기까지 확대가 가능할 수도 있다.
도 12는 본 발명의 다양한 실시 예에 따라 전자장치에서 입력 객체를 호출하는 일 상태를 나타낸 UI도면이다.
도 12는 앞서 설명한 도 11에서 사용자가 등록한 스케줄 중 등록한 특정 일자의 내용을 확인하는 경우의 예시이다. 도 12를 참조하면, (a)의 상태는 스케줄 데이터가 입력되어 있는 상태의 2013년 3월의 스케줄링 테이블이 될 수 있다. 이처럼 스케줄링 테이블에 기재된 데이터를 확인하고자 하는 경우 사용자는 해당하는 날자 예컨대, 3월 12일의 일자를 선택할 수 있다. 이때 선택 방법을 예로써 설명하면, 사용자의 신체의 일부를 이용한 터치 입력, 호버링 입력, 전자펜과 같은 전용펜 등을 이용한 터치 입력, 음성 입력 또는 제스처 입력 등의 다양한 방법을 이용할 수 있다.
위에서 설명한 방법들 중 어느 한 방법을 이용하여 3월 12일의 특정 일자가 선택되면, (b)에 도시한 바와 같이 해당 일자의 스케줄 데이터를 확대하여 표시할 수 있다. 이때 확대의 크기는 전자장치의 제조 시에 미리 설정될 수도 있고, 사용자의 설정에 의해 크기를 변경할 수도 있다. 이상에서 설명한 확대되는 동작은 입력된 내용이 있는 스케줄에서만 동작될 수도 있다.
도 13은 본 발명의 다른 실시 예에 따라 전자장치에 범위 지정 객체가 입력될 시 해당 범위를 확대하는 방법을 나타낸 도면이다.
본 발명의 다양한 실시 예에 따르면, 사용자는 특정한 일정들의 범위를 지정할 수 있다. 사용자가 2013년 3월 5일부터 3월 7일까지를 "<--->"의 형태로 범위를 지정했을 경우 지정된 날짜 영역을 일괄적으로 확대하여 나타낼 수 있다.
예컨대, 사용자가 (a)에 예시한 바와 같이 터치와 같은 신체의 일부를 이용하거나 또는 전용펜을 이용하거나 또는 그 밖의 다른 방법을 이용하여 참조부호 1301과 같이 이처럼 특정한 기간을 범위로 지정하는 객체를 입력하면, 전자장치 101은 (b)에 예시한 바와 같이 지정된 범위를 확대한 상태 1302로 표시할 수 있다. 이를 통해 사용자는 확대된 영역을 활용하여 손 글씨의 입력을 보다 용이하게 수행할 수 있다.
(a)에 예시한 바와 같이 선택된 영역이 사각형으로 구성된 한 구역은 1일을 의미할 수 있다. 이처럼 1일의 범위를 초과하는 구역이 하나의 묶음으로 인지되는 경우 전자장치 101의 프로세서 120은 묶음으로 인식된 영역을 확대된 상태 1302로 표시하도록 제어할 수 있다.
도 14는 본 발명의 또 다른 실시 예에 따라 전자장치에 객체 입력을 위해 특정한 영역을 확대한 경우의 예시도이다.
도 13에서 3월 5일에서 7일까지 사용자의 의도에 따른 입력 범위 확대 후에 추가적으로 특정 날짜에 대한 확대를 위한 객체 입력의 선택이 있는 경우 도 14에 예시한 바와 같이 해당하는 일자를 확대된 상태 1401로 표시할 수 있다.
이때, 특정 일자의 선택과 객체 입력을 위한 선택은 실제로 2회의 입력일 수도 있고, 미리 결정된 방식으로의 한 번의 입력이 될 수도 있다. 예컨대, 해당하는 일자를 연속하여(짧은 시간 내에) 일정 횟수 이상 예를 들어, 2회 터치하거나 또는 일정 시간 이상 예를 들어, 2초 이상 등과 같이 미리 설정된 시간 이상 동안 해당 일자에 터치 상태를 유지하거나 또는 특정 일자를 선택하고, 확대를 요청하는 특별한 입력이 존재하는 경우 등이 될 수 있다.
이처럼 확대된 여러 개의 일자 중 특정한 일자에 객체 입력을 위한 선택이 존재하게 되면, 해당하는 일자를 확대된 상태 1201로 표시할 수 있다. 추가적인 영역 확대 방법을 통해 사용자가 보다 편리하게 손 글씨와 같은 객체의 입력을 용이하게 할 수 있다.
반대로 확대된 특정 영역의 축소를 사용자가 의도할 경우, 다시 이전의 화면으로 복귀될 수 있다. 영역을 축호하기 위한 방법은 터치와 같은 신체의 일부를 이용하거나 전용펜 또는 그 밖의 다양한 입력 수단이 될 수 있다.
도 15는 본 발명의 다양한 실시 예에 따라 전자장치에 객체 입력을 위한 표시의 전환 예를 도시한 도면이다.
도 15의 (a)를 참조하면, 2013년 3월 13일의 스케줄 일정에 "SLP 개발팀 워크샵"과 같은 형태의 데이터가 존재한다. 이러한 데이터는 문자 입력 방식을 이용하여 입력된 데이터일 수도 있고, OMR을 통해 객체 입력 방식을 이용하여 입력한 데이터일 수도 있으며, OCR을 통해 입력된 객체의 문자 인식을 이용하여 변환된 데이터일 수도 있다.
이때, 사용자가 해당 일정의 보다 상세한 정보 입력 가령, 상세 일정에 객체 입력을 원하는 경우 또는 상세 일정에 문자 입력을 원하는 경우가 존재할 수 있다. 이처럼 상세 일정의 표시가 요구되는 경우 프로세서 120은 디스플레이 150의 상태를 (b)에 예시한 바와 같이 해당하는 일자에 타임 스케줄 형태로 표시를 변경할 수 있다. 이처럼 타임 스케줄 형태로 표시가 변경된 이후 사용자는 해당하는 영역에 문자 입력 방식 또는 객체 입력 방식을 이용하여 원하는 데이터를 입력할 수 있다. 만일 객체 입력을 원하는 경우 사용자는 보다 넓은 공간에서 손 글씨와 같은 객체를 자유롭게 입력할 수 있다.
도 16a 내지 도 16e는 본 발명의 다양한 실시 예에 따라 전자장치의 객체 입력 및 확인에 대한 방법을 도시한 도면이다.
다양한 실시예 중 하나로, 도 16a 내지 도 16e는 전자장치에서 객체가 입력되고, 입력된 객체를 다시 확인하는 동작을 순차적인 동작을 예시하고 있다. 먼저 도 16a에서는 도 11a의 (a) 동작과 동일하게 특정한 날짜(들)의 범위를 지정하는 단계가 될 수 있다. 예컨대, 사용자는 도 16a의 참조부호 1601에 예시한 바와 같이 신체의 일부 또는 전자펜 등의 각종 장치를 이용하여 특정한 날짜(들)의 범위 지정 및 확대를 요청할 수 있다. 도 16a의 예에서는 날짜를 선택하기 위한 기호 예컨대, 동그라미와 같은 기호를 입력하고, 확대를 요청하는 약속된 기호 예컨대, 화살표를 연속하여 입력하는 경우를 예시하였다.
도 16a에 예시한 경우와 달리 범위를 지정하는 방법은 원형이 아니더라도 폐쇄형 다각형을 이용하여 범위를 지정할 수 있다. 가령, 타원, 사각형, 마름모, 오각형, 육각형 등의 폐쇄형 다각형을 이용하여 범위를 지정할 수 있다. 또한 확대를 요청하는 화살표의 방향을 달리 할 수도 있다. 가령 화살표 방향이 아래를 향하지 않고, 우측, 좌측, 상향 등 다른 방향일 수도 있다. 또 다른 방법으로, 화살표가 아닌 다른 방법 예를 들어, 전자펜 등과 같은 별도의 입력 장치에 부가된 키의 입력(눌림)을 이용하거나 또는 범위 지정의 마지막 위치 폐쇄형 다각형의 마지막 위치의 유지를 미리 설정된 시간 예컨대, 1초 또는 2초 이상 유지하는 경우 등이 될 수 있다.
이상에서는 범위 지정과 확대의 요청이 서로 다른 기호 또는 입력을 사용하는 경우를 예로써 설명하였으나, 범위를 지정하는 입력을 범위 지정 및 확대 요청으로 인식하도록 구성할 수도 있다.
또한 도 16a에서는 특정한 하루에 국한된 경우만을 예시하고 있으나, 연속한 이틀, 사흘, 나흘 등과 같이 이틀 이상의 일정이 범위로 지정될 수 있다.
도 16a에서 범위 지정 및 확대의 요청을 인지하면, 전자장치는 도 16b에 예시한 바와 같이 범위가 지정된 날짜(들)를 참조부호 1602와 같이 확대하여 표시할 수 있다. 이때, 범위가 지정된 날짜(들)의 영역을 표시할 크기(size)는 전자장치의 제작 시에 미리 결정된 값일 수도 있고, 사용자가 임의로 미리 설정한 크기가 될 수도 있다.
도 16b에 예시한 바와 같이 범위 지정 및 확대 요청에 따라 참조부호 1602와 같이 확대가 이루어진 부분에 사용자는 특정한 오브젝트 예컨대, 손글씨 또는 문자 입력 방법을 이용하여 스케줄을 입력할 수 있다.
도 16c에는 범위 지정 및 확대 요청에 따라 확대하여 표시된 영역 1602 내에 손글씨를 이용하여 스케줄들(1603, 1604)을 입력한 경우를 예시하였다. 참조부호 1603은 "10시 명세사 미팅"의 스케줄이 손글씨 입력 방식으로 입력된 경우이며, 참조부호 1604는 "3시 상무님 회의"의 스케줄이 손글씨 입력 방식으로 입력된 경우를 예시하였다.
손글씨 입력 또는 문자 입력 방식으로 스케줄 입력이 완료되면, 문자 입력 방식으로 스케줄이 입력된 경우는 그대로 메모리에 저장할 수 있다. 하지만, 손글씨 입력 방식으로 입력된 스케줄 데이터는 여러 가지 형태로 저장할 수 있다. 예를 들어, 손글씨 입력 방식으로 입력된 스케줄 데이터를 손글씨 형태 그대로 이미지로 변환하여 이미지 데이터만 저장할 수도 있고, 문자 인식 방법을 이용하여 손글씨 형태의 이미지를 인식하고, 인식된 문자 형태와 손글씨 형태 그대로의 이미지를 인식된 문자와 함께 저장할 수도 있고, 문자 인식 방법을 이용하여 인식된 문자 형태만 저장할 수도 있다.
스케줄의 입력이 완료되면, 확대하여 표시하고 있던 날짜(들)를 다시 축소하여 도 16d와 표시할 수 있다. 도 16d에 예시한 바와 같이 도 16c에서 입력된 스케줄 데이터는 축소된 형태로 해당하는 날짜(들)에 참조부호 1610과 같이 표시될 수 있다.
이때, 도 16c에서 확인할 수 있는 바와 같이 입력된 손글씨 형태는 매우 작은 형태이므로, 시각적으로 인지하기 어려운 경우가 발생할 수 있다. 따라서 본 발명의 다양한 실시 예에서는 범위 지정을 통해 입력된 날짜(들)의 스케줄을 보다 편리하게 확인할 수 있는 방법을 제공한다.
본 발명의 다양한 실시예 중에 하나로, 날짜(들)의 범위가 지정된 경우에는 해당 날짜(들)의 입력된 데이터가 존재할 경우 도 16a에서 도 16b와 같은 형식으로 나타나지 않고, 도 16a에서 도 16c로와 같은 형식으로 나타날 수도 있다.
도 16e에 예시한 바와 같이 범위 지정을 통해 입력된 날짜(들)가 참조부호 1621과 같이 선택되면, 해당 일정에 저장되어 있던 데이터를 읽어와 표시할 수 있다. 이때, 표시되는 형식은 도 16c에서 입력 시의 형태와 동일한 방식으로 표시할 수도 있고, 도 16e와 같은 형식으로 표시할 수도 있다.
도 16e는 본 발명의 다양한 실시 예에 따라 입력된 오브젝트를 조금 더 크게 확대하는 방법에 대한 화면을 나타내고 있다. 사용자가 날짜의 내용을 최대한 크게 확대하여 표시 또는 입력하고 싶은 경우, 미리 설정된 시간 예를 들어 1초 또는 2초 이상 등과 같이 일정 시간이상 터치를 입력하여 전자장치에 확대 표시를 요청할 수 있다. 참조부호 1621은 사용자가 특정한 날짜를 선택하여 확대 표시를 요청하는 것을 설명하기 위한 참조부호이다.
도 16e에 예시한 바와 같이 선택된 날짜에 대한 출력 화면을 일정 영역 이상으로 확대하여 표시할 경우 확대된 화면은 여러 겹의 층 즉, 레이어 형태로 구성할 수 있다. 예를 들어 레이어들은 기본적으로 달력 형태를 취하는 정보만으로 구성된 1차 레이어와 선택된 날짜에 상응하여 저장된 스케줄 데이터를 표시하기 위한 2차 레이어로 구성할 수도 있다. 이러한 경우 1차 레이어는 가장 하위에 위치하며, 2차 레이어가 상위에 위치할 수 있다. 또한 2차 레이어는 불투명 또는 반투명 형태로 구성할 수 있다.
도 16e에서는 2차 레이어를 반투명한 형태로 예시한 도면이다. 따라서 그 하위의 1차 레이어에 해당하는 달력상의 날짜들은 반투명한 2차 레이어에 일부 가려지기 때문에 사용자에게 흐릿하게 보여질 수 있다. 만일 2차 레이어를 불투명한 형태로 구성하는 경우 1차 레이어는 2차 레이어에 가려져 안보이도록 할 수도 있다.
또한 스케줄 데이터를 표시하기 위한 확대 동작은 최대 크기로 확대할 시 이미 입력된 오브젝트가 있는 날짜에서만 동작할 수 있으며, 캘린더 초기 화면에서 사용자의 의도를 파악하여 한 번에 최대의 화면으로 전환될 수 있다. 전환될 수 있는 방법은 정해진 일정시간, 횟수 사용자 입력 또는 미리 정해진 음성 명령 등 다양한 방법이 될 수 있다.
도 17a 및 도 17b는 본 발명의 다양한 실시 예에 따라 전자장치의 입력된 객체를 화면에 표시하기 위한 방법을 도시한 도면이다
도 17a를 참조하면, 앞서 설명한 도 16d에서와 같이 표시된 상태에서 전체 화면으로 확대가 요청된 경우가 될 수 있다. 이때, 하기의 3가지 경우가 가능할 수 있다. 첫째, 확대된 상태에서 참조부호 1710 및 1720과 같은 데이터의 추가 입력이 가능한 경우일 수 있다. 둘째, 확대 전 상태에서는 도 16d에 예시한 바와 같은 형태의 스케줄 데이터만 표시되고, 확대된 상태에서만 추가 데이터인 참조부호 1710 및 1720이 표시되는 경우이다. 세 번째 경우는 첫째 및 둘째 방법이 모두 적용되는 경우일 수 있다.
첫 번째 경우는 도 16a 내지 도 16c의 동작을 통해 입력된 범위 지정된 일정에 스케줄 데이터를 입력할 수 있다. 이후 추가 스케줄을 입력하기 위해 도 16d 또는 도 16e와 같이 확대한 후 도 17a의 참조부호 1710, 1720과 같이 추가 스케줄을 입력하거나 또는 도 17b의 참조부호 1730, 1740과 같이 추가 스케줄을 입력하는 방식이다. 이처럼 추가로 입력된 스케줄이 메모리에 저장된 후 표시될 시 도 16d와 같이 추가 스케줄은 표시되지 않도록 구성할 수 있다.
또한 두 번째 경우는 도 16d와 같이 표시된 상태에서는 추가 스케줄이 표시되지 않는 경우이다. 따라서 추가 스케줄을 확인하고자 하는 경우 도 17a 또는 도 17b와 같이 확대가 이루어져야만 추가 스케줄이 표시될 수 있다.
세 번째 경우는 위의 2가지 경우가 모두 적용된 경우이므로, 설명을 생략하기로 한다.
본 발명의 다양한 실시 예에 따르면, 입력된 객체의 위치에 따라 객체를 다르게 분류 또는 저장 할 수 있다. 도 17b에서 추가로 입력된 객체 1730, 1740은 도 16c의 참조부호 1602의 영역 밖에 위치해 있다고 볼 수 있다. 이 추가된 데이터인 1730, 1740은 원래의 데이터인 도 16c의 1603, 1604의 객체의 추가 정보로 분류하여 도 16a의 1601과 같은 범위 지정 객체가 입력되었을 때 바로 화면에 나타나지 않을 수 있다. 16a의 1601과 같은 범위 지정 이후에 사용자의 추가적인 입력으로 나타나게 할 수 있다. 또는 도 16a의 1601의 객체 외에 추가적인 동작 예를 들면, 1601 객체 입력 시 화면을 일정시간 이상 떼지 않고 누르고 있을 때만 도 17b의 1730, 1740의 객체만 나타나게 할 수도 있다.
본 발명의 다양한 실시 예에 따르면, 전자장치에서 객체를 입력하기 위한 방법은, 어플리케이션을 통해 객체가 입력될 시 입력된 객체를 해석하는 동작; 상기 객체를 해석한 결과에 대응하여 표시된 데이터 중 적어도 일부를 확대하여 표시하는 동작; 및 상기 확대된 영역에 새로운 객체를 표시하는 동작;을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 입력된 객체가 범위를 지정하는 객체인 경우 해당하는 범위를 확대하는 동작;을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 범위를 지정하는 객체는, 미리 설정된 도형, 화살표, 기호, 폐곡선, 폐쇄형 다각형의 객체 입력 중 어느 하나인 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 지정된 범위는, 하나 또는 둘 이상의 날짜 또는 시간의 선택이 될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 데이터를 확대하여 표시할 시 확대되는 영역의 위치, 형태, 투명도 또는 색상 중에 하나를 다르게 표시할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 형태는 새로운 레이어를 형성하여 상기 표시 중인 데이터의 상위 레이어로 표시하는 동작;을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 새로운 레이어는, 반투명한 레이어가 될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 어플리케이션은, 스케줄, 캘린더, 메모 또는 시간이 연관된 객체를 관리하는 어플리케이션이 될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 객체 입력은, 사용자가 화면에 직접 입력하는 손 글씨가 될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 새로운 객체가 입력될 시 미리 저장된 색상 이외의 색상을 갖거나 또는 반복의 횟수에 근거하여 중요도를 결정하는 동작;을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 중요도를 표시하는 방법은, 일반 객체와 다른 위치, 크기, 형태 또는 색상 중에 적어도 하나를 달리 표시할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 확대된 영역에 수신된 새로운 객체를 저장하는 동작;을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 저장된 객체가 포함된 영역의 확대가 요구될 시 상기 저장된 객체를 함께 확대하여 표시하는 동작;을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 표시된 객체를 상기 확대된 영역의 확대 이전 크기로 축소하여 표시하는 동작;을 더 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.
100, 104 : 전자 장치 110 : 버스
120 : 프로세서 130 : 메모리
131 : 커널 132 : 미들웨어
133 : 어플리케이션 프로그래밍 인터페이스(API)
134 : 어플리케이션 140 : 입출력 인터페이스
150 : 디스플레이 160 : 통신 인터페이스
162 : 네트워크 106 : 서버
210 : 어플리케이션 프로세서(AP)
214 : SIM 카드 230 : 메모리
232 : 내장메모리 234 : 외장메모리
220 : 통신 모듈 221 : 셀룰러 모듈
223 : Wi-Fi 모듈 229 : RF 모듈
225 : BT 모듈 227 : GPS 모듈
228 : NFC 모듈 240 : 센서 모듈
240A : 제스쳐 센서 240B : 자이로 센서
240C : 기압 센서 240D : 마그네틱 센서
240E : 가속도 센서 240F : 그립 센서
240G : 근접 센서 240H : RGB 센서
240I : 생체 센서 240J : 온/습도 센서
240K : 조도 센서 240M : UV 센서
250 : 입력 장치 252 : 터치 패널
254 : 펜 센서 256 : 키
258 : 초음파 입력장치 260 : 디스플레이
262 : 패널 264 : 홀로그램
266 : 프로젝터 270 : 인터페이스
272 : HDMI 274 : USB
276 : 광 인터페이스 278 : D-SUB
280 : 오디오 모듈 282 : 스피커
284 : 리시버 286 : 이어폰
288 : 마이크 291 : 카메라 모듈
295 : 전력 관리 모듈 296 : 배터리
297 : 인디케이터 298 : 모터

Claims (20)

  1. 전자장치에서 객체를 입력하기 위한 방법에 있어서,
    어플리케이션을 통해 객체가 입력될 시 입력된 객체를 해석하는 동작;
    상기 객체를 해석한 결과에 대응하여 표시된 데이터 중 적어도 일부를 확대하여 표시하는 동작; 및
    상기 확대된 영역에 새로운 객체를 표시하는 동작;을 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  2. 제1항에 있어서,
    상기 입력된 객체가 범위를 지정하는 객체인 경우 해당하는 범위를 확대하는 동작;을 더 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  3. 제2항에 있어서, 상기 범위를 지정하는 객체는,
    미리 설정된 도형, 화살표, 기호, 폐곡선, 폐쇄형 다각형의 객체 입력 중 어느 하나인 동작을 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  4. 제2항에 있어서, 상기 지정된 범위는,
    하나 또는 둘 이상의 날짜 또는 시간의 선택인, 전자 장치에서 객체를 입력하기 위한 방법.
  5. 제1항에 있어서,
    상기 데이터를 확대하여 표시할 시 확대되는 영역의 위치, 형태, 투명도 또는 색상 중에 하나를 다르게 표시하는, 전자 장치에서 객체를 입력하기 위한 방법.
  6. 제5항에 있어서,
    상기 형태는 새로운 레이어를 형성하여 상기 표시 중인 데이터의 상위 레이어로 표시하는 동작;을 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  7. 제6항에 있어서, 상기 새로운 레이어는,
    반투명한 레이어인, 전자장치에서 객체를 입력하기 위한 방법.
  8. 제1항에 있어서, 상기 어플리케이션은,
    스케줄, 캘린더, 메모 또는 시간이 연관된 객체를 관리하는 어플리케이션인, 전자 장치에서 객체를 입력하기 위한 방법.
  9. 제1항에 있어서, 상기 객체 입력은,
    사용자가 화면에 직접 입력하는 손 글씨인, 전자 장치에서 객체를 입력하기 위한 방법.
  10. 제1항에 있어서,
    상기 새로운 객체가 입력될 시 미리 저장된 색상 이외의 색상을 갖거나 또는 반복의 횟수에 근거하여 중요도를 결정하는 동작;을 더 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  11. 제10항에 있어서, 상기 중요도를 표시하는 방법은,
    일반 객체와 다른 위치, 크기, 형태 또는 색상 중에 적어도 하나를 달리 표시하는, 전자 장치에서 객체를 입력하기 위한 방법.
  12. 제1항에 있어서,
    상기 확대된 영역에 수신된 새로운 객체를 저장하는 동작;을 더 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  13. 제12항에 있어서,
    상기 저장된 객체가 포함된 영역의 확대가 요구될 시 상기 저장된 객체를 함께 확대하여 표시하는 동작;을 더 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  14. 제12항에 있어서,
    상기 표시된 객체를 상기 확대된 영역의 확대 이전 크기로 축소하여 표시하는 동작;을 더 포함하는, 전자 장치에서 객체를 입력하기 위한 방법.
  15. 문자 또는 그래픽을 표시하는 디스플레이;
    어플리케이션 또는 사용자가 입력한 객체 데이터를 저장하기 위한 메모리;
    사용자로부터 상기 객체 데이터를 수신하기 위한 입출력 인터페이스; 및
    상기 입출력 인터페이스로부터 상기 디스플레이에 표시된 데이터 중 일부의 범위 지정 및 지정된 범위의 확대를 요청하는 객체 입력 시 상기 지정된 범위를 확대하여 상기 디스플레이에 표시되도록 제어하고, 상기 입출력 인터페이스로부터 상기 확대된 영역에 객체가 입력될 시 상기 입력된 객체를 상기 디스플레이에 표시하도록 제어하며, 상기 입력된 객체의 저장이 요청될 시 상기 지정된 범위에 상기 입력된 객체를 함께 상기 메모리에 저장하도록 제어하는 프로세서;를 포함하는, 객체를 입력하기 위한 전자장치.
  16. 제15항에 있어서, 상기 프로세서는,
    상기 입출력 인터페이스로부터 상기 저장된 객체의 확대가 요청될 시 새로운 레이어를 형성하여 상기 디스플레이에 표시 중인 데이터의 상위 레이어로 표시하도록 제어하는, 객체를 입력하기 위한 전자장치.
  17. 제16항에 있어서, 상기 프로세서는,
    상기 입출력 인터페이스로부터 상기 디스플레이에 표시된 상기 새로운 레이어에 추가 객체가 입력될 시 상기 입력된 객체를 상기 디스플레이에 표시하도록 제어하고, 상기 입력된 객체의 저장이 요구될 시 상기 입력된 객체를 상기 저장된 데이터에 추가하여 상기 메모리에 저장하도록 제어하는, 객체를 입력하기 위한 전자장치.
  18. 제15항에 있어서, 상기 프로세서는,
    미리 설정된 도형, 화살표, 기호, 폐곡선, 폐쇄형 다각형의 객체 입력 중 어느 하나로 입력 시 상기 범위 지정으로 식별하는, 객체를 입력하기 위한 전자장치.
  19. 제15항에 있어서, 상기 디스플레이에 표시된 데이터는,
    스케줄, 캘린더, 메모 또는 시간이 연관된 데이터인, 객체를 입력하기 위한 전자장치.
  20. 디스플레이를 갖는 단말에 구현되는 컴퓨터 판독 가능한 매체에 있어서,
    상기 디스플레이에 표시된 데이터 중 일부의 범위 지정 및 지정된 범위의 확대를 요청하는 객체 입력 시 상기 지정된 범위를 확대하여 표시하고,
    상기 확대된 영역에 객체가 입력될 시 상기 입력된 객체를 표시하며,
    상기 입력된 객체의 저장이 요청될 시 상기 지정된 범위에 상기 입력된 객체를 저장하고, 확대된 범위를 원래의 데이터로 축소하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터 매체로 읽을 수 있는 매체.
KR1020140125966A 2014-09-22 2014-09-22 전자장치에서 객체 입력 방법 및 장치 KR20160034685A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140125966A KR20160034685A (ko) 2014-09-22 2014-09-22 전자장치에서 객체 입력 방법 및 장치
US14/860,070 US20160085424A1 (en) 2014-09-22 2015-09-21 Method and apparatus for inputting object in electronic device
EP15186199.4A EP2998855A1 (en) 2014-09-22 2015-09-22 Method and apparatus for inputting object in electronic device
CN201510608595.3A CN105446523A (zh) 2014-09-22 2015-09-22 用于在电子设备中输入对象的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140125966A KR20160034685A (ko) 2014-09-22 2014-09-22 전자장치에서 객체 입력 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20160034685A true KR20160034685A (ko) 2016-03-30

Family

ID=54251938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140125966A KR20160034685A (ko) 2014-09-22 2014-09-22 전자장치에서 객체 입력 방법 및 장치

Country Status (4)

Country Link
US (1) US20160085424A1 (ko)
EP (1) EP2998855A1 (ko)
KR (1) KR20160034685A (ko)
CN (1) CN105446523A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727695B2 (en) 2016-01-12 2023-08-15 Esight Corp. Language element vision augmentation methods and devices

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD797752S1 (en) * 2013-06-07 2017-09-19 Sony Interactive Entertainment Inc. Display screen with transitional graphical user interface
US20170285931A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands
KR102544780B1 (ko) * 2016-07-04 2023-06-19 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
CN106303018A (zh) * 2016-08-11 2017-01-04 深圳市金立通信设备有限公司 一种闹钟控制方法与终端
USD833470S1 (en) * 2016-12-15 2018-11-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
CN111813311B (zh) * 2020-09-10 2020-12-04 湖南新云网科技有限公司 轨迹颜色生成方法、装置、电子设备及可读存储介质

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967961B2 (ja) * 1991-12-16 1999-10-25 インターナショナル・ビジネス・マシーンズ・コーポレイション 月別の予定表表示の提示方法
US5539427A (en) * 1992-02-10 1996-07-23 Compaq Computer Corporation Graphic indexing system
US5457476A (en) * 1992-05-27 1995-10-10 Apple Computer, Inc. Method for controlling a computerized organizer
US6236396B1 (en) * 1992-05-27 2001-05-22 Apple Computer, Inc. Method and apparatus for controlling a scheduler
JP3188039B2 (ja) * 1993-05-11 2001-07-16 三洋電機株式会社 手書き文字記入枠の制御方法
JP3744552B2 (ja) * 1994-03-07 2006-02-15 富士通株式会社 ペン入力装置
US6144371A (en) * 1998-03-18 2000-11-07 International Business Machines Corporation Thinkscribe combined electronic and paper based scheduling
US7503493B2 (en) * 1999-10-25 2009-03-17 Silverbrook Research Pty Ltd Method and system for digitizing freehand graphics with user-selected properties
JP3708768B2 (ja) * 1999-11-22 2005-10-19 シャープ株式会社 読取り装置及びデータ処理システム
US6950095B2 (en) * 2000-06-19 2005-09-27 Lg Electronics Inc. Apparatus and method for inputting and displaying data for refrigerator
US6820096B1 (en) * 2000-11-07 2004-11-16 International Business Machines Corporation Smart calendar
US6816626B1 (en) * 2001-04-27 2004-11-09 Cisco Technology, Inc. Bandwidth conserving near-end picture-in-picture videotelephony
US7296232B1 (en) * 2002-04-01 2007-11-13 Microsoft Corporation Calendar control for selection of time periods to filter data
AU2003279711A1 (en) * 2002-09-09 2004-04-08 Apple Computer, Inc. A computer program comprising a plurality of calendars
US7295852B1 (en) * 2003-05-01 2007-11-13 Palm, Inc. Automated telephone conferencing method and system
US7395510B2 (en) * 2003-12-16 2008-07-01 Hewlett-Packard Development Company, L.P. Method of, and system for, adjusting a document configuration
US20060001656A1 (en) * 2004-07-02 2006-01-05 Laviola Joseph J Jr Electronic ink system
US20060033737A1 (en) * 2004-08-16 2006-02-16 Old William M Methods and system for visualizing data sets
JP2006245832A (ja) * 2005-03-01 2006-09-14 Olympus Imaging Corp 画像再生装置
JP4733415B2 (ja) * 2005-04-05 2011-07-27 シャープ株式会社 電子文書の表示装置及び方法、並びにコンピュータプログラム
US8074175B2 (en) * 2006-01-06 2011-12-06 Microsoft Corporation User interface for an inkable family calendar
JP5220278B2 (ja) * 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
JP4285704B2 (ja) * 2006-08-16 2009-06-24 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US10783526B2 (en) * 2006-12-19 2020-09-22 Celeritasworks, Llc Campaign awareness management systems and methods
US7870126B2 (en) * 2006-12-19 2011-01-11 Celeritasworks, Llc Campaign awareness management systems and methods
US20080235578A1 (en) * 2007-03-23 2008-09-25 Sony Ericsson Mobile Communications Ab Inline editing of web page input fields using a visibly prominent field
US7693842B2 (en) * 2007-04-09 2010-04-06 Microsoft Corporation In situ search for active note taking
US20090073464A1 (en) * 2007-09-18 2009-03-19 Barinder Singh Rai Selective Color Replacement
JP4859865B2 (ja) * 2008-03-26 2012-01-25 富士フイルム株式会社 カレンダー出力方法、プログラムおよび装置
KR20100028344A (ko) * 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
JP5531412B2 (ja) * 2009-01-14 2014-06-25 シャープ株式会社 電子機器および情報処理方法
US8799826B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8884872B2 (en) * 2009-11-20 2014-11-11 Nuance Communications, Inc. Gesture-based repetition of key activations on a virtual keyboard
US9678659B2 (en) * 2009-12-31 2017-06-13 Verizon Patent And Licensing Inc. Text entry for a touch screen
US8793611B2 (en) * 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
EP3734404A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
JP2012168649A (ja) * 2011-02-10 2012-09-06 Panasonic Corp 携帯端末装置、表示制御方法、及び表示制御プログラム
US10152192B2 (en) * 2011-02-21 2018-12-11 Apple Inc. Scaling application windows in one or more workspaces in a user interface
US9501213B2 (en) * 2011-09-16 2016-11-22 Skadool, Inc. Scheduling events on an electronic calendar utilizing fixed-positioned events and a draggable calendar grid
JP5418576B2 (ja) * 2011-11-28 2014-02-19 コニカミノルタ株式会社 情報閲覧装置及び表示制御プログラム
JP2013196661A (ja) * 2012-03-23 2013-09-30 Nintendo Co Ltd 入力制御プログラム、入力制御装置、入力制御システム、および入力制御方法
JP5492257B2 (ja) * 2012-06-29 2014-05-14 株式会社東芝 電子機器、制御方法及びプログラム
KR20140008987A (ko) * 2012-07-13 2014-01-22 삼성전자주식회사 필기 이미지 인식을 이용한 어플리케이션 제어 방법 및 장치
US20140075393A1 (en) * 2012-09-11 2014-03-13 Microsoft Corporation Gesture-Based Search Queries
JP5567097B2 (ja) * 2012-10-26 2014-08-06 株式会社東芝 電子機器、手書き文書表示方法、及び表示プログラム
US20140146200A1 (en) * 2012-11-28 2014-05-29 Research In Motion Limited Entries to an electronic calendar
US9823824B2 (en) * 2013-08-19 2017-11-21 Kodak Alaris Inc. Context sensitive adaptable user interface
JP6092462B2 (ja) * 2014-03-12 2017-03-08 株式会社東芝 電子機器、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727695B2 (en) 2016-01-12 2023-08-15 Esight Corp. Language element vision augmentation methods and devices

Also Published As

Publication number Publication date
CN105446523A (zh) 2016-03-30
US20160085424A1 (en) 2016-03-24
EP2998855A1 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
CN107688370B (zh) 用于控制显示器、存储介质、和电子设备的方法
KR102497195B1 (ko) 컨텐츠를 처리하는 방법 및 이를 위한 전자 장치 및 저장 매체
KR102276108B1 (ko) 폴더형 표시부를 가지는 전자 장치 및 이의 운영 방법
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102391772B1 (ko) 터치 감응 디스플레이를 포함하는 전자 장치 및 이 전자 장치를 동작하는 방법
KR102309175B1 (ko) 스크랩 정보를 제공하는 전자 장치 및 그 제공 방법
KR20160034685A (ko) 전자장치에서 객체 입력 방법 및 장치
KR20150099297A (ko) 전자장치의 화면 표시 방법
KR20150092588A (ko) 전자장치에서 플랙서블 디스플레이의 표시 제어 방법 및 장치
KR20160031851A (ko) 정보 제공 방법 및 그 전자 장치
KR20160020166A (ko) 전자 장치 및 이의 화면 표시 방법
KR102266882B1 (ko) 전자장치의 화면 표시 방법
KR20160005609A (ko) 그래픽 사용자 인터페이스를 표시하는 방법 및 이를 지원하는 전자장치
KR20160011388A (ko) 전자 장치의 화면 표시 방법 및 그 전자 장치
KR20150135893A (ko) 홈스크린 구성 방법 및 이를 이용한 전자 장치
KR20160046099A (ko) 전자장치에서 표시 제어 방법 및 장치
KR20150133989A (ko) 홈 스크린 페이지를 추가하는 전자 장치 및 방법
KR102274944B1 (ko) 오브젝트를 식별하는 전자 장치 및 방법
US9977582B2 (en) Window display method and apparatus of displaying a window using an external input device
KR20160020102A (ko) 드래그 앤 드롭 처리 방법 및 장치
US20150135086A1 (en) Method and apparatus for providing application information
KR102353498B1 (ko) 기능 제공 방법 및 그 전자 장치
KR20150096956A (ko) 전자 장치에서 정보를 표시하는 방법 및 장치
KR20150115403A (ko) 인식 영역에 기반하여 콘텐트를 검출하는 전자 장치 및 방법
KR20150083718A (ko) 전자 장치의 텍스트 표시 방법 및 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid