KR102233728B1 - 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR102233728B1
KR102233728B1 KR1020130131156A KR20130131156A KR102233728B1 KR 102233728 B1 KR102233728 B1 KR 102233728B1 KR 1020130131156 A KR1020130131156 A KR 1020130131156A KR 20130131156 A KR20130131156 A KR 20130131156A KR 102233728 B1 KR102233728 B1 KR 102233728B1
Authority
KR
South Korea
Prior art keywords
electronic device
user
motion
mode
present
Prior art date
Application number
KR1020130131156A
Other languages
English (en)
Other versions
KR20150049942A (ko
Inventor
이지훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130131156A priority Critical patent/KR102233728B1/ko
Priority to US14/221,658 priority patent/US10027737B2/en
Publication of KR20150049942A publication Critical patent/KR20150049942A/ko
Application granted granted Critical
Publication of KR102233728B1 publication Critical patent/KR102233728B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)

Abstract

본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 사용자의 동작을 감지하는 과정과, 상기 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하는 과정과, 상기 감지된 사용자의 동작이 상기 미리 설정된 동작인 경우, 영상을 촬영하는 과정과, 상기 찰영된 영상을 분석하여 사용자의 주시 여부를 판단하는 과정과, 상기 사용자가 일정 시간동안 주시된 것으로 판단될 경우, 미리 설정된 기능을 수행하는 과정을 포함할 수 있다.
또한, 본 발명의 실시 예들은 다른 실시 예들이 가능할 수 있다.

Description

전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체{METHOD, APPARATUS AND COMPUTER READABLE RECORDING MEDIUM FOR CONTROLLING ON AN ELECTRONIC DEVICE}
본 발명의 다양한 실시 예들은 사용자의 동작에 의해 전자 장치를 제어하기 위한 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
최근 전자 장치(예컨대, 모바일 장치)에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대되고 있다. 이러한 전자 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 전자 장치에서 실행 가능한 다양한 애플리케이션들이 개발되고 있다.
전자 장치에는 해당 장치의 제조사에 의해 제작되어 해당 장치에 설치되는 기본 애플리케이션들과, 인터넷을 통하여 애플리케이션 판매 웹사이트로부터 다운로드 되는 추가 애플리케이션들 등이 저장되고 실행될 수 있다. 상기 추가 애플리케이션들은 일반 개발자들에 의해 개발되고, 상기 판매 웹사이트에 등록될 수 있다. 따라서, 누구든지 자신이 개발한 애플리케이션들을 상기 애플리케이션 판매 웹사이트를 통하여 자유롭게 상기 전자 장치의 사용자에게 판매할 수 있다. 이에 따라 현재 전자 장치에는 그 제품에 따라 수만에서 수십 만개의 애플리케이션들이 무료 또는 유료로 제공되고 있다.
한편, 시계형 장치에서는 버튼을 이용하여 제어하거나, 시계형 장치에 장착된 터치스크린을 이용하여 제어한다.
그러나, 큰 화면이 장착된 전자 장치(예컨대, 모바일 장치)에서 사용되는 버튼과 터치스크린을 사용하는 UX(User Experience)를 시계형 장치에 그대로 적용할 경우, 시계형 장치의 조작이 비효율적일 수 있다.
또한, 기존의 시계형 장치는 화면 표시에 대한 비효율적인 전원 관리로 인하여 배터리 효율이 떨어질 수 있다.
이를 해결하기 위해, 본 발명의 일 실시 예는, 전자 장치에서 사용자의 동작을 감지하고, 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있는 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
또한, 본 발명의 다른 일 실시 예는, 전자 장치에서 촬영된 영상을 분석하여 사용자의 주시 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있는 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
또한, 본 발명의 다른 일 실시 예에 따른 제1 전자 장치는, 사용자의 미리 설정된 동작이 감지되면 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 정보를 표시할 수 있는 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.
본 발명의 실시 예에 따른 전자 장치의 제어 방법은, 사용자의 동작을 감지하는 과정과, 상기 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하는 과정과, 상기 감지된 사용자의 동작이 상기 미리 설정된 동작인 경우, 영상을 촬영하는 과정과, 상기 찰영된 영상을 분석하여 사용자의 주시 여부를 판단하는 과정과, 상기 사용자가 일정 시간동안 주시된 것으로 판단될 경우, 미리 설정된 기능을 수행하는 과정을 포함할 수 있다.
또한, 본 발명의 실시 예에 따른 전자 장치는, 카메라부와, 사용자의 동작을 감지하는 센서부와, 상기 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하고, 상기 감지된 사용자의 동작이 상기 미리 설정된 동작인 경우, 상기 카메라부를 제어하여 영상을 촬영하고, 상기 찰영된 영상을 분석하여 사용자의 주시 여부를 판단하고, 상기 사용자가 일정 시간동안 주시된 것으로 판단된 경우, 미리 설정된 기능을 수행하는 제어부를 포함할 수 있다.
한편, 상기 전자 장치에서 제어를 수행하는 방법에 대한 정보는 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 임베디드 멀티미디어 카드(eMMC) 등이 있을 수 있다.
본 발명의 일 실시 예에 따르면, 소형 화면을 가지고 있는 시계형 장치에 대응하는 UX를 제공함으로써, 사용자들은 기존 아날로그 시계형 장치의 감성을 느낄 수 있으며, 시계형 장치를 효율적으로 조작할 수 있다.
또한, 본 발명의 실시 예에 따르면, 효율적인 화면 표시의 전원 관리로 인해 배터리 효율이 증가된다.
또한, 본 발명의 실시 예에 따르면, 제2 전자 장치에 의해 실행된 애플리케이션에 대응하는 정보를 표시부에 표시할 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시 예에 따른 전자 장치에서 미리 설정된 기능을 수행하는 절차를 나타내는 흐름도이다.
도 3은 본 발명의 다른 실시 예에 따른 전자 장치에서 화면을 표시하는 절차를 나타내는 흐름도이다.
도 4는 본 발명의 실시 예에 따른 전자 장치의 일부 구성을 나타내는 블록도이다.
도 5는 본 발명의 다른 실시 예에 따른 전자 장치의 일부 구성을 나타내는 블록도이다.
도 6은 본 발명의 실시 예에 따른 전자 장치에서 사용자의 동작을 감지하는 예를 나타내는 도면이다.
도 7은 본 발명의 실시 예에 따른 사용자의 주시 여부를 판단하는 예를 나타내는 도면이다.
도 8은 본 발명의 다른 실시 예에 따른 사용자의 주시 여부를 판단하는 예를 나타내는 도면이다.
도 9 내지 도 12는 본 발명의 실시 예에 따른 전자 장치에서 화면을 표시하는 예를 나타내는 도면이다.
도 13은 본 발명의 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
도 14는 본 발명의 실시 예에 따른 웨어러블 장치의 예를 나타내는 도면이다.
도 15는 본 발명의 실시 예에 따른 전자 장치의 예를 나타내는 도면이다.
본 발명의 실시 예에서는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명의 실시 예들에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 실시 예들은 전자 장치에서 사용자의 동작을 감지하고, 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있는 방법 및 장치를 개시한다.
또한, 본 발명의 실시 예들은 전자 장치에서 촬영된 영상을 분석하여 사용자의 주시 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있는 방법 및 장치를 개시한다.
한편, 후술하는 본 발명의 실시 예들에 대한 설명에서, '전자 장치'는 적어도 하나의 프로세서를 구비하는 임의의 장치일 수 있으며, 카메라, 휴대 장치, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등을 포함할 수 있다. 예를 들어, 전자 장치는 디지털 카메라, 스마트폰, 휴대폰, 게임기, 텔레비전(TV), 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants), 내비게이션 장치, 은행의 ATM, 상점의 POS 장치 등일 수 있다. 또한, 본 발명의 실시 예들에서의 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다. 또한, 본 발명의 실시 예들에서의 전자 장치는 웨어러블 장치(예컨대, 시계형 장치, 안경형 장치, 의류형 장치 등)일 수도 있다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
먼저, 도 1을 참조하여 본 발명의 실시 예에 따른 전자 장치의 구성을 설명하며, 다음으로 도 2 및 도 3을 참조하여 본 발명의 실시 예들에 따른 절차를 상세히 설명한다. 한편, 후술하는 설명에서는 전자 장치의 예로서 웨어러블 장치(예컨대, 시계형 장치)를 예를 들어 설명하나, 본 발명의 실시 예들이 상기 웨어러블 장치(예컨대, 시계형 장치)로 한정되는 것은 아니다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다. 도 1을 참조하면, 본 발명의 실시 예에 따른 전자 장치(100)는 센서부(101), 카메라부(102), 제어부(104) 및 표시부(105)를 포함하여 구성될 수 있다. 또한, 본 발명의 다른 실시 예에 따라 통신부(103) 및 저장부(106)를 더 포함하여 구성될 수도 있다.
본 발명의 실시 예에 따른 상기 센서부(101)는 사용자의 동작(예컨대, 전자 장치(100)가 착용된 팔을 위로 올리는 동작, 팔을 아래로 내리는 동작, 손목을 위로 비트는 동작, 손목을 아래로 비트는 동작 및 팔을 안으로 굽히는 동작이 될 수 있으며, 이에 한정되는 것은 아니다.)을 감지할 수 있다. 그리고, 상기 센서부(101)는 감지된 사용자의 동작을 제어부(104)로 전달할 수 있다. 상기 센서부(101)는 사용자의 동작을 감지할 수 있는 적어도 하나의 센서를 포함할 수 있으며 예컨대, 동작 감지 센서로 자이로 센서, 가속도 센서, 근접 센서, 회전각 센서, 레벨 센서, 진동 센서, 하중 센서 및 압력 센서일 수 있으며, 본 발명이 상기 센서들에 한정되는 것은 아니다.
한편, 본 발명의 다른 실시 예에 따른 상기 전자 장치(100)는 하나의 상기 센서부(101)를 포함할 수 있으며, 이에 한정되지 않고 다수의 센서부들을 포함하도록 구성될 수도 있다.
본 발명의 실시 예에 따른 상기 카메라부(102)는 사용자의 신체 일부(예컨대, 얼굴 윤곽선 및 눈동자가 될 수 있으며, 이에 한정되는 것은 아니다.)를 촬영할 수 있다. 예컨대, 상기 카메라부(102)는 사용자의 주시 여부를 판단하기 위해 미리 설정된 시간동안 촬영을 할 수 있다.
그리고, 상기 카메라부(102)는 촬영된 영상을 상기 제어부(104)로 전달할 수 있다.
상기 제어부(104)는 상기 센서부(101)에 의해 감지된 사용자의 동작을 전달받을 수 있으면, 사용자의 미리 설정된 동작과 비교할 수 있다. 예컨대, 사용자의 동작과 사용자의 미리 설정된 동작의 비교 결과, 동작이 서로 동일 또는 유사할 경우,(예컨대, 동작의 유사도) 상기 카메라부(102)를 동작하도록 제어할 수 있다.
상기 카메라부(102)의 동작에 따라, 상기 제어부(104)는 상기 카메라부(102)를 통해 촬영된 영상을 전달받을 수 있다. 상기 제어부(104)는 상기 카메라부(102)를 통해 상기 촬영된 영상을 기반으로 사용자가 일정 시간동안 주시하였는지 여부를 판단할 수 있다. 상기 주시 여부를 판단하는 방법은 예컨대, 촬영된 영상에서 사용자의 얼굴 윤곽선을 식별하고, 일정 시간동안 얼굴 윤곽선의 변화가 설정된 값 미만일 경우, 사용자가 주시하고 있는 것으로 판단할 수 있다. 또 다른 실시 예에서 사용자의 눈동자를 식별하고, 일정 시간동안 눈동자의 변화가 설정된 값 미만일 경우, 사용자가 주시하고 있는 것으로 판단할 수 있다. 상기 제어부(104)는 사용자로부터 일정 시간(예컨대, 1초 내지 2초)동안 주시되었음이 판단되면 미리 설정된 기능을 수행할 수 있으며, 사용자로부터 일정 시간동안 주시되지 않았으면 상기 센서부(101)를 제어하여 사용자의 동작을 감지하는 동작을 다시 수행할 수 있다.
또한, 본 발명의 다른 실시 예에 따라 상기 제어부(104)는 상기 통신부(103)를 제어하여 제2 전자 장치와 통신으로 연결할 수 있으며, 상기 동작 감지 및/또는 주시 여부에 따라 연결된 제2 전자 장치에서 실행중인 애플리케이션에 대응하는 정보를 표시부(105)를 통해 표시하도록 제어할 수 있다. 그리고, 상기 제어부(104)는 상기 표시부(105)를 통해 표시된 정보를 저장부(106)에 저장하도록 제어할 수 있다.
한편, 상기 제어부(104)는 상기 통신부(103)를 제어하여 단거리 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망을 통해 제2 전자 장치와 연결할 수 있다.
또한, 상기 제어부(104)는 상기 통신부(103)를 제어하여 적외선(Infrared Data Association; IrDA) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선전송기술을 이용하여 제2 전자 장치와 연결할 수도 있다.
또한, 상기 제어부(104)는 상기 통신부(103)를 제어하여 케이블 방송 통신망, 지상파 방송 통신망, 위성 방송 통신망 등을 통해 제2 전자 장치의 신호를 수신할 수도 있으며, 상기 제어부(104)는 상기 전자 장치(100)의 전반적인 동작을 제어할 수 있다.
상기 표시부(105)는 상기 전자 장치(100)에서 제공할 수 있는 정보(예컨대, 시계 모드, 대기 모드, 음악 재생 모드, 동영상 모드가 될 수 있으며 이에 한정되지 않는다.)를 표시할 수 있다. 또한, 상기 표시부(105)는 상기 제어부(104)의 제어를 통해 입력된 제2 전자 장치의 정보(예컨대, 제2 전자 장치의 애플리케이션에 대응하는 정보)를 표시할 수도 있다.
따라서, 상기 통신부(103)는 상기 제어부(104)의 제어에 따라 제2 전자 장치와 연결하기 위한 동작을 수행할 수 있으며, 상기 저장부(106)는 상기 제어부(104)의 제어를 통해 입력된 정보(예컨대, 시계 모드, 대기 모드, 음악 재생 모드, 동영상 모드 및 제2 전자 장치의 애플리케이션에 대응하는 정보가 될 수 있으며, 이에 한정되지 않는다.)를 저장할 수 있다.
도 2는 본 발명의 실시 예에 따른 전자 장치에서 미리 설정된 기능을 수행하는 절차를 나타내는 흐름도이다. 도 2를 참조하면, 전자 장치(예컨대, 시계형 장치 등을 포함하는 웨어러블 전자 장치)는 사용자의 신체 일부(예컨대, 오른쪽 손목, 왼쪽 손목이 될 수 있으며 이에 한정되지는 않는다.)에 착용되었는지 여부를 판단할 수 있다. 예컨대, 상기 착용 여부는 센서부(101)의 감지(예컨대, 사용자의 피부, 습도, 체온이 될 수 있으며 이에 한정되지 않는다.)를 통해 판단이 가능할 수 있다. 그러나, 본 발명의 다른 실시 예에 따라 착용 여부 판단없이 사용자의 동작을 감지하도록 구현할 수도 있다.
상기 전자 장치에서는 상기 센서부(101)의 감지를 통해 사용자의 동작(예컨대, 전자 장치(100)가 착용된 팔을 위로 올리는 동작, 팔을 아래로 내리는 동작, 손목을 위로 비트는 동작, 손목을 아래로 비트는 동작 및 팔을 안으로 굽히는 동작이 될 수 있으며, 이에 한정되는 것은 아니다.)을 감지(202)할 수 있다. 본 발명의 다른 실시 예에 따라 상기 감지하는 방법으로써, 일정한 동작이 움직이는 방향에 따른 직선 가속도, 회전 가속도가 될 수도 있다.
상기 전자 장치는 감지된 사용자의 동작과 미리 설정된 동작을 비교(204)할 수 있다. 상기 감지된 사용자의 동작과 상기 미리 설정된 동작의 비교 결과, 동작이 서로 동일 또는 유사한 동작으로 판단될 경우, 카메라부(102)를 동작(206)할 수 있다.
상기 카메라부(102)의 동작에 따라 상기 전자 장치는 상기 카메라부(102)를 통해 촬영된 영상을 분석하여 사용자의 주시 여부를 판단(208)할 수 있다. 본 발명의 실시 예에 따라 상기 주시 여부를 판단하는 기준은 다음과 같을 수 있다.
예를 들면, 상기 전자 장치는 상기 카메라부(102)가 동작함과 동시에 촬영할 수 있는 최대 시간을 5초로 결정할 수 있고, 사용자의 주시 여부 판단 기준 시간을 1초로 결정할 수 있다. 이에 따라, 상기 전자 장치는 사용자의 신체 일부(예컨대, 얼굴 윤곽선 및 눈동자가 될 수 있으며, 이에 한정되는 것은 아니다.)가 상기 카메라부(102)를 통해 1초 이상 주시(210)되면 사용자가 일정 시간동안 주시된 것으로 판단할 수 있다. 이후, 상기 전자 장치는 미리 설정된 기능을 수행(212)할 수 있다. 본 발명의 실시 예에 따라 미리 설정된 기능은 상기 전자 장치의 화면을 온(ON)시키는 것일 수 있으며, 이에 한정되지는 않는다.
한편, 사용자는 상기 카메라부(102)가 동작함과 동시에 주시할 수도 있으며, 상기 카메라부(102)가 동작한 뒤 1초 후에 주시할 수도 있다. 예컨대, 사용자가 미리 설정된 시간 이내에 일정 시간동안 상기 카메라부(102)를 주시한다면, 상기 전자 장치는 사용자가 일정 시간동안 주시한 것으로 판단할 수 있다.
본 발명의 일 실시 예에 따라 촬영할 수 있는 최대 시간을 5초, 사용자의 주시 여부 판단 기준 시간을 1초로 예를 들어 설명하였으나 이에 한정되지 않으며 다양하게 시간이 변경될 수 있다.
이와 같이, 본 발명의 실시 예에 따른 상기 전자 장치에서 사용자의 동작을 감지하여, 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하고, 사용자의 주시 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있다.
도 3은 본 발명의 다른 실시 예에 따른 전자 장치에서 화면을 표시하는 절차를 나타내는 흐름도이다. 도 3을 참조하면, 전자 장치(예컨대, 시계형 장치 등을 포함하는 웨어러블 전자 장치)(이하, 제1 전자 장치라 한다)는 제2 전자 장치(예컨대, 모바일 장치)와 통신으로 연결(302)될 수 있다. 상기 제1 전자 장치는 상기 제2 전자 장치에서 애플리케이션이 실행 중인지 여부를 판단(304)할 수 있다. 상기 판단 결과, 상기 제2 전자 장치에서 애플리케이션이 실행(306)중이라면, 상기 도 2의 조건이 만족할 경우, 실행 중인 애플리케이션에 대응하는 정보를 표시(310)할 수 있다. 이와 달리, 상기 제1 전자 장치는 상기 제2 전자 장치에서 실행 중인 애플리케이션이 존재하지 않는다면, 대기 모드(예컨대, 시계 모드, 화면 오프 모드 등)를 표시(308)할 수 있다.
이와 같이, 본 발명의 실시 예에 따른 상기 제1 전자 장치는 사용자의 동작을 감지하고, 사용자의 주시 여부를 판단함으로써, 상기 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 정보를 표시할 수 있다.
한편, 상기 제1 전자 장치는 상기 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 정보를 다음과 같이 표시할 수 있다.
제2 전자 장치에서 실행 중인 애플리케이션 제1 전자 장치에서 표시되는 정보
통화중 통화 시간, 통화 내역 표시
메시지 또는 이메일 수신 메시지 또는 이메일 본문 표시
음악 재생 현재 음악 리스트, 재생 현황 표시
운동 중 운동 관련 정보 표시
실행중인 애플리케이션 없음 대기 모드 표시
표 1을 참조하면, 상기 제1 전자 장치는 사용자의 동작을 감지하고, 사용자로부터 주시 되었음이 판단되면, 본 발명의 실시 예에 따라 상기 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 각 정보들을 표시부에 표시할 수 있다. 이때 표 1에 도시된 바와 같이 상기 제2 전자 장치에서 실행 중인 애플리케이션이 통화중인 상태를 나타내면, 상기 제1 전자 장치에서는 통화중에 대응하는 정보(통화 시간, 통화 내역 표시 등)가 표시될 수 있다. 이외에도, 상기 제1 전자 장치에는 상기 제2 전자 장치에서 실행 중인 다양한 애플리케이션(메시지 또는 이메일 수신, 음악 재생 및 운동 중이 될 수 있으며 이에 한정되지는 않는다.)에 대응하는 정보가 표시될 수도 있다.
이와 같이, 본 발명의 실시 예에 따른 상기 전자 장치는 사용자의 동작을 감지하여 카메라를 동작시키고, 동작된 카메라를 통해 촬영된 영상을 분석하여 사용자의 주시 여부를 판단함으로써, 사용자에게 최적화된 UX를 제공할 수 있으며, 상기 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 정보를 표시함으로써, 사용자가 원하는 화면을 효율적으로 표시할 수 있다.
도 4는 본 발명의 실시 예에 따른 전자 장치의 일부 구성을 나타내는 블록도이다. 도 4를 참조하면, 웨어러블 장치는 일 예로서 카메라부(410), 표시부(420) 및 제1 센서부(430)를 포함할 수 있는 시계형 장치일 수 있다.
상기 카메라부(410)는 사용자의 신체 일부(예컨대, 얼굴 윤곽선 및 눈동자가 될 수 있으며, 이에 한정되는 것은 아니다.)를 촬영할 수 있다. 예컨대, 상기 카메라부(410)는 일정 시간동안 촬영을 할 수 있으며, 상기 일정 시간은 사용자의 주시 여부의 판단 기준에 따라 변경될 수 있다.
상기 표시부(420)는 상기 전자 장치에서 제공할 수 있는 정보(예컨대, 시계 모드, 대기 모드, 음악 재생 모드, 동영상 모드가 될 수 있으며 이에 한정되지 않는다.)를 표시할 수 있다. 또한, 상기 표시부(420)는 제2 전자 장치의 정보(예컨대, 제2 전자 장치의 애플리케이션에 대응하는 정보)를 표시할 수도 있다.
상기 제1 센서부(430)는 사용자의 동작(예컨대, 전자 장치가 착용된 팔을 위로 올리는 동작, 팔을 아래로 내리는 동작, 손목을 위로 비트는 동작, 손목을 아래로 비트는 동작 및 팔을 안으로 굽히는 동작이 될 수 있으며, 이에 한정되는 것은 아니다.)을 감지할 수 있다. 상기 제1 센서부(430)는 사용자의 동작을 감지할 수 있는 적어도 하나의 센서를 포함할 수 있으며 예컨대, 동작 감지 센서로 자이로 센서, 가속도 센서, 근접 센서, 회전각 센서, 레벨 센서, 진동 센서, 하중 센서 및 압력 센서일 수 있으며, 본 발명이 상기 센서들에 한정되는 것은 아니다.
한편, 본 발명의 다른 실시 예에 따른 상기 전자 장치는 하나의 상기 제1 센서부(430)를 포함할 수 있으며, 이에 한정되지 않고 다수의 센서부들을 포함하도록 구성될 수도 있다.
도 4에서 설명한 바와 같이 상기 전자 장치의 일부 구성을 설명하였지만, 본 발명의 실시 예는 사용자가 전자 장치의 정면(예컨대, 사용자가 눈으로 바라보는 시점에서 시각 표시가 보이는 구조)을 바라보는 구조로 설명될 수 있다. 이하, 도 5에서는 도 4에서 설명된 전자 장치의 후면(예컨대, 사용자가 눈으로 바라보는 시점에서 시각 표시가 보이지 않는 구조)을 바라보는 구조로 설명될 수도 있으며, 이에 한정되지 않는다.
도 5는 본 발명의 다른 실시 예에 따른 전자 장치의 일부 구성을 나타내는 블록도이다. 도 5를 참조하면, 웨어러블 장치의 예로써, 시계줄(510), 제2 센서부(520) 및 연결 고리(530)를 포함할 수 있는 시계형 장치일 수 있다.
상기 시계줄(510)은 상기 전자 장치가 사용자의 신체 일부(예컨대, 오른쪽 손목, 왼쪽 손목이 될 수 있으며 이에 한정되지는 않는다.)에 착용될 때 사용될 수 있다. 예컨대, 상기 시계줄(510)은 사용자의 신체 일부를 감싸기 위한 형태로 구현될 수 있다.
상기 제2 센서부(520)는 예컨대, 사용자의 피부, 습도, 체온 등의 감지를 통해 사용자의 신체 일부에 착용 되었는지 여부를 판단할 수 있다. 이와 같이, 사용자의 피부, 습도, 체온 등이 감지하여 착용 여부를 판단한 후, 사용자의 동작을 감지하도록 구현할 수 있다. 그러나, 본 발명의 다른 실시 예에 따라 착용 여부 판단없이 사용자의 동작을 감지하도록 구현할 수도 있다. 반면, 상기 제2 센서부(520)는 사용자의 피부, 습도, 체온 등이 감지되지 않는다면, 사용자의 동작을 감지하지 않도록 구현할 수 있다. 예컨대, 이와 같은 구현을 통해 본 발명의 실시 예에 따른 상기 전자 장치는 불필요한 전력 낭비를 방지할 수 있다.
상기 연결 고리(530)는 상기 전자 장치가 사용자의 신체 일부(예컨대, 오른쪽 손목, 왼쪽 손목이 될 수 있으며 이에 한정되지는 않는다.)에 착용될 때 사용하는 상기 시계줄(510)을 연결시켜 줄 수 있도록 구현할 수 있다.
도 6은 본 발명의 실시 예에 따른 전자 장치에서 사용자의 동작을 감지하는 예를 나타내는 도면이다. 도 6을 참조하면, 사용자(600)는 웨어러블 장치의 예로서 시계형 장치(620)를 손목에 착용하고, 팔(610)을 움직이는 동작(예컨대, 시계형 장치(100)가 착용된 팔을 위로 올리는 동작, 팔을 아래로 내리는 동작, 손목을 위로 비트는 동작, 손목을 아래로 비트는 동작 및 팔을 안으로 굽히는 동작이 될 수 있으며, 이에 한정되는 것은 아니다.)을 수행할 수 있다.
사용자가 이와 같은 동작을 수행할 때, 상기 시계형 장치(620)는 상기 사용자(600)의 상기 동작을 감지할 수 있다. 이때, 상기 시계형 장치(620)는 본 발명의 실시 예에 EK라 상기 사용자(600)의 미리 설정된 동작과 비교할 수 있다. 예컨대, 상기 사용자(600)의 동작과 상기 사용자(600)의 미리 설정된 동작의 비교 결과, 동일 또는 유사한 동작으로 판단되면, 카메라부를 동작하도록 제어할 수 있는 다음 동작을 수행할 수 있다.
이와 같이, 본 발명의 실시 예에 따른 상기 시계형 장치(620)에서 상기 사용자(600)의 동작을 감지하고, 감지된 사용자(600)의 동작이 미리 설정된 동작인지 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있다. 본 발명의 실시 예에 따라 미리 설정된 기능은 상기 전자 장치의 화면을 온(ON)시키는 것일 수 있으며, 이에 한정되지는 않는다.
도 7은 본 발명의 실시 예에 따른 사용자의 주시 여부를 판단하는 예를 나타내는 도면이다. 도 7을 참조하면, 전자 장치는 카메라부를 통해 사용자의 신체 일부(예컨대, 얼굴 윤곽선)를 촬영할 수 있다. 예컨대, 상기 전자 장치는 미리 설정된 시간 T초 동안 촬영을 할 수 있으며, 상기 미리 설정된 시간은 사용자의 주시 여부 판단 기준에 따라 변경될 수도 있다. 상기 전자 장치는 T초 동안 촬영 도중, 도 7에 보인 예처럼 사용자의 얼굴 윤곽선에 대한 흔들림(예컨대, 음식물을 씹는 정도의 흔들림, 강한 바람에 의한 흔들림, 미리 설정된 흔들림 등등)이 있더라도, 움직임의 범위가 일정 범위 이내이면 사용자가 주시한 것으로 판단할 수 있도록 구현할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 사용자의 주시 여부를 판단하는 예를 나타내는 도면이다. 도 8을 참조하면, 전자 장치는 카메라부를 통해 사용자의 신체 일부(예컨대, 눈동자)를 촬영할 수 있다. 예컨대, 상기 전자 장치는 미리 설정된 시간 T초 동안 촬영을 할 수 있으며, 상기 미리 설정된 시간은 사용자의 주시 여부판단 기준에 따라 변경될 수도 있다. 상기 전자 장치는 T초 동안 촬영 도중, 도 8에 보인 예처럼 사용자의 눈동자에 대한 흔들림이 있더라도, 움직임의 범위가 일정 범위 이내이면 사용자가 주시한 것으로 판단할 수 있도록 구현할 수 있다.
도 9 내지 도 12는 본 발명의 실시 예에 따른 전자 장치에서 화면을 표시하는 예를 나타내는 도면이다.
도 9 내지 도 12를 참조하면, 전자 장치(예컨대, 시계형 장치 등을 포함하는 웨어러블 전자 장치)의 화면 상태는 대기 화면인 오프(OFF) 상태일 수 있다. 이후, 상기 전자 장치는 본 발명의 실시 예에 따라 사용자의 동작을 감지하고, 사용자의 주시 여부를 판단하여 미리 설정된 기능을 수행할 수 있다. 상기 전자 장치(예컨대, 제1 전자 장치)는 미리 설정된 기능 수행을 통해 제2 전자 장치에서 실행 중인 애플리케이션에 대응하는 정보를 표시할 수도 있다.
예컨대, 본 발명의 실시 예에 따라 사용자가 미리 설정된 동작을 수행하고 전자 장치를 일정 시간 이상 주시할 경우, 도 9에 도시된 바와 같이 상기 전자 장치의 화면이 오프 모드에서 각 애플리케이션에 대응하는 화면으로 변경될 수 있다. 예컨대, 통화중(910) 모드로 변경되면, 상기 전자 장치는 통화중(910) 모드와 관련된 정보(예컨대, 통화 시간(920), 통화자 이름(930) 및 저장된 이름(940)이 될 수 있으며, 이에 한정되는 것은 아니다.)를 표시할 수 있다.
예컨대, 본 발명의 실시 예에 따라 사용자가 미리 설정된 동작을 수행하고 전자 장치를 일정 시간 이상 주시할 경우, 도 10에 도시된 바와 같이 상기 전자 장치의 화면이 오프 모드에서 각 애플리케이션에 대응하는 화면으로 변경될 수 있다. 예컨대, 메시지 수신(1010) 모드로 변경되면, 상기 전자 장치는 메시지 수신(1010) 모드와 관련된 정보(예컨대, 메시지 발신자(1020) 및 메시지 내용(1030)이 될 수 있으며, 이에 한정되는 것은 아니다.)를 표시할 수 있다.
예컨대, 본 발명의 실시 예에 따라 사용자가 미리 설정된 동작을 수행하고 전자 장치를 일정 시간 이상 주시할 경우, 도 11에 도시된 바와 같이 상기 전자 장치의 화면이 오프 모드에서 각 애플리케이션에 대응하는 화면으로 변경될 수 있다. 예컨대, 음악 재생 모드로 변경되면, 상기 전자 장치는 음악 재생 모드와 관련된 정보(예컨대, 이전 재생(1110), 재생(1120), 다음 재생(1130), 볼륨 높임(1140), 볼륨 줄임(1150), 가수(1160), 제목(1170), 이전 재생곡(1180), 다음 재생곡(1190) 및 노래 가사(1192)가 될 수 있으며, 이에 한정되는 것은 아니다.)를 표시할 수 있다.
예컨대, 본 발명의 실시 예에 따라 사용자가 미리 설정된 동작을 수행하고 전자 장치를 일정 시간 이상 주시할 경우, 도 12에 도시된 바와 같이 상기 전자 장치의 화면이 오프 모드에서 각 애플리케이션에 대응하는 화면으로 변경될 수 있다. 예컨대, 운동 중(1210) 모드로 변경되면, 상기 전자 장치는 운동 중(1210) 모드와 관련된 정보(예컨대, 종목(1220), 농구대(1230) 및 선수(1240)가 될 수 있으며, 이에 한정되는 것은 아니다.)를 표시할 수 있다.
도 13은 본 발명의 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다. 예컨대, 도 13에 도시된 전자 장치(100)는 상술한 실시 예들에서의 제1 전자 장치 또는 제2 전자 장치의 일 예일 수 있다.
따라서, 상기 전자 장치(100)는 통신부와 표시부를 구비하는 임의의 장치일 수 있으며, 카메라, 휴대 장치, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다. 예를 들어, 전자 장치는 디지털 카메라, 스마트폰, 휴대폰, 게임기, 텔레비전(TV), 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants), 내비게이션 장치, 은행의 ATM, 상점의 POS 장치 등일 수 있다. 또한, 본 발명에서의 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
이러한 전자 장치(100)의 일 예로서 제1 전자 장치는 시계형 장치가 될 수 있으며, 제2 전자 장치는 휴대 장치(예컨대, 휴대폰, 스마트폰 등)가 될 수 있다. 후술하는 전자 장치의 구성들 중에서 일부 구성은 필요에 따라 생략되거나 변경될 수 있다. 이하, 도 13을 참조하여, 본 발명의 실시 예들이 적용될 수 있는 전자 장치(100)의 세부 구조를 예로서 설명하기로 한다.
도 13을 참조하면, 상기 전자 장치(100)는 통신 모듈(120), 커넥터(165), 및 이어폰 연결잭(167) 중 적어도 하나를 이용하여 외부의 전자 장치와 연결될 수 있다. 이러한, 외부의 전자 장치는 상기 전자 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들 중의 하나를 포함할 수 있다. 또한, 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 상기 전자 장치(100)는 유선 또는 무선을 이용하여 다른 휴대 장치 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다.
또한, 상기 전자 장치(100)는 적어도 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함할 수 있다. 아울러, 전자 장치(100)는 제어부(110), 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함할 수 있다. 통신 모듈(120)은 이동통신 모듈(121), 서브 통신 모듈(130) 및 방송 통신 모듈(141)을 포함할 수 있다. 서브 통신 모듈(130)은 무선랜 모듈(131) 및 근거리 통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상 재생 모듈(143) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 그리고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동 소자(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
제어부(110)는 CPU(111), 상기 전자 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 상기 전자 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 상기 전자 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부(110)는 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195) 중 적어도 하나 이상을 제어할 수 있다.
또한, 제어부(110)는 입력 유닛(168)이 터치 스크린(190)에 접근하거나, 그에 근접하게 위치함에 따른 호버링(Hovering) 이벤트와 같은 사용자 입력 이벤트를 감지할 수 있다. 또한, 제어부(110)는 상기 터치 스크린(190)뿐만 아니라 카메라 모듈(150), 입/출력 모듈(160), 및 센서모듈(170) 등을 통해 수신되는 다양한 사용자 입력을 검출할 수 있다. 상기 사용자 입력은 상기 터치뿐만 아니라, 사용자의 제스처, 음성, 눈동자 움직임, 홍채 인식, 생체신호 등 상기 전자 장치(100) 내로 입력되는 다양한 형태의 정보를 포함할 수 있다. 제어부(110)는 상기 검출된 사용자 입력에 대응하는 미리 정해진 동작 또는 기능이 상기 전자 장치(100) 내에서 수행되도록 제어할 수 있다.
또한, 제어부(110)는 제어 신호를 입력 유닛(168) 또는 진동 소자(164)로 출력할 수 있다. 이러한 제어 신호는 진동 패턴에 대한 정보를 포함할 수 있으며, 입력 유닛(168) 또는 진동 소자(164)는 이러한 진동 패턴에 따른 진동을 생성한다. 이러한 진동 패턴에 대한 정보는 진동 패턴 자체, 진동 패턴의 식별자 등을 나타낼 수 있다. 또는, 이러한 제어 신호는 단순히 진동 생성의 요청만을 포함할 수도 있다.
상기 전자 장치(100)는 성능에 따라 이동 통신 모듈(121), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
이동 통신 모듈(121)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나를 이용하여 이동 통신을 통해 상기 전자 장치(100)가 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈(121)은 상기 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 제2 전자 장치와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다.
서브 통신 모듈(130)은 무선랜 모듈(131)과 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리 통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리 통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE 802.11x)을 지원할 수 있다. 근거리 통신 모듈(132)은 제어부(110)의 제어에 따라 상기 전자 장치(100)와 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
방송 통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예, EPG(Electronic Program Guide) 또는 ESG(Electronic Service Guide))를 수신할 수 있다.
멀티미디어 모듈(140)은 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)을 포함할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장부(175)에 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예컨대, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
멀티미디어 모듈(140)은 제어부(110)에 통합될 수도 있다. 카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 줌인/줌 아웃을 수행하는 경통부(155), 상기 경통부(155)의 움직임을 제어하는 모터부(154), 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 전자 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 전자 장치(100)의 후면에 배치될 수 있다.
입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 마이크(162), 적어도 하나의 스피커(163), 적어도 하나의 진동 소자(164), 커넥터(165), 키패드(166), 이어폰 연결 잭(167) 및 입력 유닛(168) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린(190) 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼(161)은 상기 전자 장치(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다. 마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 소리를 입력받아 전기적인 신호를 생성할 수 있다. 스피커(163)는 제어부(110)의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 상기 전자 장치(100)의 외부로 출력할 수 있다. 스피커(163)는 상기 전자 장치(100)가 수행하는 기능에 대응되는 소리(예를 들어, 전화 통화에 대응되는 버튼 조작음, 통화 연결음, 상대방 사용자의 음성 등)를 출력할 수 있다. 스피커(163)는 상기 전자 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 상기 전자 장치(100)는 다른 장치로부터 음성 또는 화상 통화가 수신되는 경우, 상기 진동 모터(164)가 동작한다. 진동 소자(164)는 상기 전자 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 상기 진동 모터(164)는 터치 스크린(190)을 통한 사용자 입력에 대응하여 동작할 수 있다.
커넥터(165)는 상기 전자 장치(100)와 외부 전자 장치 또는 전원 소스를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)는 커넥터(165)에 연결된 유선 케이블을 통해 전자 장치(100)의 저장부(175)에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. 상기 전자 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하거나, 전원 소스를 이용하여 배터리를 충전할 수 있다.
키패드(166)는 상기 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 상기 키패드(166)는 상기 전자 장치(100)에 형성되는 물리적인 키패드 또는 터치 스크린(190)에 표시되는 가상의 키패드를 포함할 수 있다. 상기 전자 장치(100)에 형성되는 물리적인 키패드는 상기 전자 장치(100)의 성능 또는 구조에 따라 제외될 수 있다. 이어폰은 이어폰 연결잭(Earphone Connecting Jack, 167)에 삽입되어 상기 전자 장치(100)에 연결될 수 있다.
입력 유닛(168)은 상기 전자 장치(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 전자 장치(100)로부터 인출 또는 분리될 수 있다. 이러한, 입력 유닛(168)이 삽입되는 상기 전자 장치(100) 내부의 일 영역에는 상기 입력 유닛(168)의 장착 및 탈착에 대응하여 동작하는 탈/부착 인식 스위치(169)가 구비되어 있고, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착 및 분리에 대응하는 신호를 제어부(110)로 출력할 수 있다. 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착시 직·간접적으로 접촉되도록 구성될 수 있다. 이에 따라, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)과의 접촉 여부에 기초하여, 상기 입력 유닛(168)의 장착 또는 분리에 대응하는 신호(즉, 입력 유닛(168)의 장착 또는 분리를 통지하는 신호)를 생성하여 제어부(110)로 출력할 수 있다.
센서 모듈(170)은 상기 전자 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자 장치(100) 주변의 빛의 양을 검출하는 조도 센서, 또는 전자 장치(100)의 동작(예를 들어, 전자 장치(100)의 회전, 전자 장치(100)의 가속 또는 진동)을 검출하는 모션 센서, 지구 자기장을 이용해 전자 장치(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈(157) 등의 적어도 하나의 센서를 포함할 수 있다.
GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS 위성으로부터 전파를 수신하고, GPS 위성으로부터 전자 장치(100)까지의 전파 도달 시간(Time of Arrival)을 이용하여 상기 전자 장치(100)의 위치를 산출할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 전자 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
한편, '저장부'라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 전자 장치(100)에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
또한, 저장부(175)는 내비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 전자 장치(100)를 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 이미지들 등을 저장할 수 있다.
저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM), 플래시-이피롬(FLASH-EPROM), 및 임베디드 멀티미디어 카드(eMMC(embedded Multi Media Card)) 중의 적어도 하나를 포함한다.
전원 공급부(180)는 제어부(110)의 제어에 따라 전자 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 전자 장치(100)에 전력을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 전자 장치(100)로 공급할 수 있다. 또한, 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 전자 장치(100)로 공급할 수도 있다.
그리고, 상기 전자 장치(100)는 사용자에게 다양한 서비스(예컨대, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다. 터치 스크린(190)은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛(168)(예를 들어, 스타일러스 펜, 전자 펜 등)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다. 이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
또한, 터치 스크린(190)은 손가락 및 입력 유닛(168)에 의한 입력을 각각 입력받을 수 있도록, 손가락 및 입력 유닛(168)의 터치나 접근을 각각 감지할 수 있는 적어도 두 개의 터치 패널을 포함할 수 있다. 적어도 두 개의 터치 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러(195)에 제공하고, 터치 스크린 컨트롤러(195)는 상기 적어도 두 개의 터치 스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치 스크린(190)으로부터의 입력이 손가락에 의한 입력인지, 입력 유닛(168)에 의한 입력인지를 구분할 수 있다.
또한, 상기 터치는 터치 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예컨대, 터치 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치 스크린(190)에서 검출가능한 간격은 전자 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)로부터 수신한 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수도 있다. 또한, 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 수단이 터치 스크린(190)을 누르는 압력을 검출할 수 있고, 확인된 압력 값을 디지털 신호로 변환하여 제어부(110)로 제공할 수도 있다.
도 14는 본 발명의 실시 예에 따른 웨어러블 장치의 예를 나타내는 도면이다. 한편, 상술한 본 발명의 실시 예에 따른 시계형 장치는 웨어러블 장치 한 종류로, 일반적인 시계와 같이 팔목에 착용 가능한 디바이스이며, 연산을 수행하는 중앙 처리장치, 정보를 표시하는 디스플레이, 주변 전자장치와 관련되는 통신 장치 등을 내장할 수 있다. 또한 영상의 촬영을 위한 카메라를 내장하여 일반 촬영 또는 인식용 카메라로 사용이 가능하다.
도 14를 참조하면, 본 발명의 실시 예에 따라 전자 장치(100a)가 도시된 바와 같이 시계형 장치일 경우, 제2 전자 장치(예컨대, 모바일 장치)에 비하여 상대적으로 작은 용량 및 작은 처리 능력을 구비하는 저장부, 제어부, 및 입출력장치를 구비할 수 있다. 예컨대, 상기 시계형 장치는 사용자의 신체에 착용 가능할 수 있는 정도의 크기로 마련된 단말일 수 있다. 나아가, 상기 시계형 장치는 도시된 바와 같이 소정의 하드웨어 구성물(예컨대, 시계줄)에 결합되어, 사용자의 손목에 착용할 수 있다.
또한, 상기 시계형 장치는 입출력 장치로서, 미리 정해진 소정 크기의 터치스크린(181)을 포함할 수 있으며, 추가적으로 적어도 하나의 하드웨어 버튼(183)을 포함할 수도 있다.
한편, 상기 시계형 장치는 본 발명의 실시 예에 따라 사용자의 동작을 감지하여, 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하고, 카메라를 동작시켜 사용자의 주시 여부를 판단함으로써, 미리 설정된 기능을 수행할 수 있다.
도 15는 본 발명의 실시 예에 따른 전자 장치의 예를 나타내는 도면이다. 도 15에 도시된 바와 같이 본 발명의 실시 예에 따른 전자 장치(100)는 제2 전자 장치일 수 있으며, 상기 제2 전자 장치에서 실행되는 애플리케이션에 대응하는 정보를 전송할 수 있다.
도 15를 참조하면, 전자 장치(100)의 전면 중앙에는 터치스크린(171)이 배치된다. 상기 터치스크린(171)은 장치(100)의 전면의 대부분을 차지하도록 크게 형성될 수 있다.
또한, 상기 전자 장치(100)의 화면에 표시되는 홈 스크린은 여러 페이지의 서로 다른 홈 스크린들을 포함할 수 있는데, 상기 여러 페이지의 홈 스크린들 중 첫 번째 홈 스크린은 도 15에 도시된 바와 같은 메인 홈 스크린일 수 있다. 홈 스크린에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(171a, 171b, 171c), 메인메뉴 전환키(171d), 시간, 날씨 등이 표시될 수 있다. 상기 메인메뉴 전환키(171d)는 상기 터치스크린(171) 상에 메뉴 화면을 표시한다. 또한, 상기 터치스크린(171)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각, 볼륨 운영 모드와 같은 장치(100)의 상태를 표시하는 상태바(Status Bar)가 형성될 수도 있다.
본 발명의 예시적 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.
또한, 본 발명의 예시적 실시 예에 따른 방법들은 도 13에 보인 예처럼 전술한 전자 장치(100)의 저장부(175)에 프로그램 명령 형태로 구현되어 저장될 수 있으며, 상기 프로그램 명령은, 본 발명의 예시적 실시 예에 따른 방법들의 실행을 위해 제어부(110) 내에 포함된 램(RAM, 113)에 일시적으로 저장될 수 있다. 이에 따라, 제어부(110)는, 본 발명의 예시적 실시 예에 따른 방법들에 따른 상기 프로그램 명령에 대응하여, 상기 전자 장치(100)에 포함된 하드웨어 구성요소들의 제어를 수행하고, 본 발명의 예시적 실시예에 따른 방법들을 실행하면서 발생되는 데이터를 일시 또는 지속적으로 저장부(175)에 저장하고, 본 발명의 예시적 실시예에 따른 방법들의 실행에 필요한 UI를 터치스크린 컨트롤러(195)에 제공할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 전자 장치 101 : 센서부
102 : 카메라부 103 : 통신부
104 : 제어부 105 : 표시부
106 : 저장부

Claims (15)

  1. 전자 장치를 제어하는 방법에 있어서,
    사용자의 동작을 감지하는 과정과,
    상기 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하는 과정과,
    상기 감지된 사용자의 동작이 상기 미리 설정된 동작인 경우, 상기 전자 장치의 카메라를 이용하여, 일정 시간 동안 사용자의 영상을 촬영하는 과정과,
    상기 촬영된 영상을 분석하여 상기 일정 시간 동안 상기 사용자가 상기 전자 장치를 주시하는지 여부를 판단하는 과정과, 및
    상기 사용자가 상기 전자 장치를 상기 일정 시간동안 주시하는 것으로 판단하는 경우, 미리 설정된 기능을 수행하는 과정을 포함하되,
    상기 미리 설정된 기능을 수행하는 과정은,
    상기 전자 장치와 연결 중인 제 2 전자 장치에서 어플리케이션이 실행 중인지를 판단하는 과정,
    상기 제 2 전자 장치에서 상기 어플리케이션이 실행 중인 것으로 판단하는 경우, 상기 제 2 전자 장치에서 실행 중인 상기 어플리케이션에 대응하는 정보를 표시하는 과정, 및
    상기 제 2 전자 장치에서 상기 어플리케이션이 실행 중이지 않은 것으로 판단하는 경우, 대기 모드(idle mode)에 대응하는 정보를 표시하는 과정을 포함하는 전자 장치의 제어 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 미리 설정된 기능을 수행하는 과정은,
    오프 모드 상태에서 통화중 모드로 변경시키는 과정을 포함하는 전자 장치의 제어 방법.
  5. 제1항에 있어서, 상기 미리 설정된 기능을 수행하는 과정은,
    오프 모드 상태에서 메시지 수신 모드로 변경시키는 과정을 포함하는 전자 장치의 제어 방법.
  6. 제1항에 있어서, 상기 미리 설정된 기능을 수행하는 과정은,
    오프 모드 상태에서 음악 재생 모드로 변경시키는 과정을 포함하는 전자 장치의 제어 방법.
  7. 제1항에 있어서, 상기 미리 설정된 기능을 수행하는 과정은,
    오프 모드 상태에서 운동 중 모드로 변경시키는 과정을 포함하는 전자 장치의 제어 방법.
  8. 전자 장치에 있어서,
    디스플레이와,
    카메라부와,
    사용자의 동작을 감지하는 센서부와,
    상기 감지된 사용자의 동작이 미리 설정된 동작인지 여부를 판단하고, 상기 감지된 사용자의 동작이 상기 미리 설정된 동작인 경우, 상기 카메라부를 제어하여 일정 시간 동안 사용자의 영상을 촬영하고, 상기 촬영된 영상을 분석하여 상기 일정 시간 동안 상기 사용자가 상기 전자 장치를 주시하는지 여부를 판단하고, 상기 사용자가 상기 전자 장치를 상기 일정 시간 동안 주시하는 것으로 판단하는 경우, 미리 설정된 기능을 수행하는 제어부를 포함하되,
    상기 제어부는 상기 미리 설정된 기능을 수행하는 동작으로서,
    상기 전자 장치와 연결 중인 제 2 전자 장치에서 어플리케이션이 실행 중인지를 판단하고,
    상기 제 2 전자 장치에서 상기 어플리케이션이 실행 중인 것으로 판단하는 경우, 상기 제 2 전자 장치에서 실행 중인 상기 어플리케이션에 대응하는 정보를 표시하도록 상기 디스플레이를 제어하고, 및
    상기 제 2 전자 장치에서 상기 어플리케이션이 실행 중이지 않은 것으로 판단하는 경우, 대기 모드(idle mode)에 대응하는 정보를 표시하도록 상기 디스플레이를 제어하는 전자 장치.
  9. 삭제
  10. 삭제
  11. 제8항에 있어서, 상기 제어부는,
    오프 모드 상태에서 통화중 모드로 변경시킴을 특징으로 하는 전자 장치.
  12. 제8항에 있어서, 상기 제어부는,
    오프 모드 상태에서 메시지 수신 모드로 변경시킴을 특징으로 하는 전자 장치.
  13. 제8항에 있어서, 상기 제어부는,
    오프 모드 상태에서 음악 재생 모드로 변경시킴을 특징으로 하는 전자 장치.
  14. 제8항에 있어서, 상기 제어부는,
    오프 모드 상태에서 운동 중 모드로 변경시킴을 특징으로 하는 전자 장치.
  15. 청구항 제1항, 및 청구항 제4항 내지 제7항 중 어느 한 항에 기재된 방법을 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
KR1020130131156A 2013-10-31 2013-10-31 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 KR102233728B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130131156A KR102233728B1 (ko) 2013-10-31 2013-10-31 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US14/221,658 US10027737B2 (en) 2013-10-31 2014-03-21 Method, apparatus and computer readable medium for activating functionality of an electronic device based on the presence of a user staring at the electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130131156A KR102233728B1 (ko) 2013-10-31 2013-10-31 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20150049942A KR20150049942A (ko) 2015-05-08
KR102233728B1 true KR102233728B1 (ko) 2021-03-30

Family

ID=52996913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130131156A KR102233728B1 (ko) 2013-10-31 2013-10-31 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Country Status (2)

Country Link
US (1) US10027737B2 (ko)
KR (1) KR102233728B1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101940104B1 (ko) * 2012-08-24 2019-01-21 삼성디스플레이 주식회사 플렉서블 디스플레이 장치
US9274506B2 (en) * 2014-01-29 2016-03-01 Cheng Uei Precision Industry Co., Ltd. Wearable electronic device
EP3180675B1 (en) 2014-08-16 2021-05-26 Google LLC Identifying gestures using motion data
DE202015006141U1 (de) 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
KR20160121318A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법
KR20160134310A (ko) * 2015-05-15 2016-11-23 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20160147564A (ko) * 2015-06-15 2016-12-23 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9804679B2 (en) * 2015-07-03 2017-10-31 Google Inc. Touchless user interface navigation using gestures
KR20170011723A (ko) * 2015-07-24 2017-02-02 (주)에이아이티 영상 출력 서비스 시스템 및 방법
CN105389074A (zh) * 2015-07-28 2016-03-09 广东欧珀移动通信有限公司 一种智能手表的控制方法及智能手表
CN105530244B (zh) * 2015-12-03 2018-09-04 北京奇虎科技有限公司 一种实现主控设备控制智能设备的方法和服务器
CN105894533A (zh) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 基于智能设备实现体感控制的方法、***以及智能设备
JP7390255B2 (ja) * 2020-05-22 2023-12-01 株式会社日立製作所 無線運用管理システム、及び無線運用支援方法
CN112860169B (zh) * 2021-02-18 2024-01-12 Oppo广东移动通信有限公司 交互方法及装置、计算机可读介质和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135198A1 (en) * 2008-09-30 2013-05-30 Apple Inc. Electronic Devices With Gaze Detection Capabilities

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3876979A (en) * 1973-09-14 1975-04-08 Gte Automatic Electric Lab Inc Data link arrangement with error checking and retransmission control
US5333029A (en) * 1990-10-12 1994-07-26 Nikon Corporation Camera capable of detecting eye-gaze
US6371616B1 (en) 1999-11-12 2002-04-16 International Business Machines Corporation Information processing miniature devices with embedded projectors
US20110267263A1 (en) * 2000-07-17 2011-11-03 Microsoft Corporation Changing input tolerances based on device movement
KR20050073920A (ko) * 2004-01-12 2005-07-18 주식회사 팬택앤큐리텔 휴대용 단말기에서 눈동자 위치 정보를 이용한 통화 연결방법
US7422145B2 (en) * 2006-05-08 2008-09-09 Nokia Corporation Mobile communication terminal and method
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
KR101379995B1 (ko) * 2007-04-17 2014-04-02 엘지전자 주식회사 단말기 및 그 표시방법
JP5219184B2 (ja) * 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
US8339367B2 (en) * 2009-02-27 2012-12-25 Research In Motion Limited System and method for analyzing movements of an electronic device using rotational movement data
KR101607888B1 (ko) * 2009-06-03 2016-03-31 엘지전자 주식회사 시계 겸용 휴대 단말기 및 동작방법
KR20100136649A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US9690386B2 (en) * 2009-07-14 2017-06-27 Cm Hk Limited Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
US20130314303A1 (en) * 2010-02-28 2013-11-28 Osterhout Group, Inc. Ar glasses with user action control of and between internal and external applications with feedback
US8957847B1 (en) * 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US20120169594A1 (en) * 2010-12-30 2012-07-05 Motorola-Mobility, Inc. Electronic device and method for backlight control
US8687840B2 (en) * 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
EP2546782B1 (en) * 2011-07-11 2014-06-25 Accenture Global Services Limited Liveness detection
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US9063574B1 (en) * 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
WO2014031944A1 (en) * 2012-08-24 2014-02-27 EmoPulse, Inc. System and method for obtaining and using user physiological and emotional data
TWI497311B (zh) * 2013-03-28 2015-08-21 Quanta Comp Inc 跨裝置通訊傳輸系統及其方法
US20140368423A1 (en) * 2013-06-17 2014-12-18 Nvidia Corporation Method and system for low power gesture recognition for waking up mobile devices
US9196239B1 (en) * 2013-08-30 2015-11-24 Amazon Technologies, Inc. Distracted browsing modes
US9183612B2 (en) * 2013-09-04 2015-11-10 Qualcomm Incorporated Wearable display device use-based data processing control
US10048761B2 (en) * 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135198A1 (en) * 2008-09-30 2013-05-30 Apple Inc. Electronic Devices With Gaze Detection Capabilities

Also Published As

Publication number Publication date
KR20150049942A (ko) 2015-05-08
US10027737B2 (en) 2018-07-17
US20150121228A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
KR102233728B1 (ko) 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
US9582168B2 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
KR102041984B1 (ko) 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법
US10162512B2 (en) Mobile terminal and method for detecting a gesture to control functions
KR102051908B1 (ko) 정보를 디스플레이하는 모바일 장치 및 방법
CN109905852B (zh) 通过使用呼叫方电话号码来提供附加信息的装置和方法
CN108495045B (zh) 图像拍摄方法、装置、电子装置以及存储介质
US20140059494A1 (en) Apparatus and method for providing application list depending on external device connected to mobile device
US10019219B2 (en) Display device for displaying multiple screens and method for controlling the same
US20150160731A1 (en) Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium
KR102152052B1 (ko) 전자 장치 및 전자 장치에서 기능 관리 방법
US20170076139A1 (en) Method of controlling mobile terminal using fingerprint recognition and mobile terminal using the same
US9883018B2 (en) Apparatus for recording conversation and method thereof
US20140282204A1 (en) Key input method and apparatus using random number in virtual keyboard
KR102155133B1 (ko) 이미지 표시 방법 및 장치
KR20170084558A (ko) 전자 장치 및 그의 동작 방법
KR102117295B1 (ko) 전자 장치의 페어링 방법 및 장치
KR102559407B1 (ko) 영상을 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US9749455B2 (en) Electronic device and method for sending messages using the same
US10114496B2 (en) Apparatus for measuring coordinates and control method thereof
US9633225B2 (en) Portable terminal and method for controlling provision of data
US20140348334A1 (en) Portable terminal and method for detecting earphone connection
US20150106492A1 (en) Electronic device, display method for electronic device, and computer-readable recording medium
CN114296620A (zh) 信息交互方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant