KR102568710B1 - 전자장치 및 그 동작 방법 - Google Patents

전자장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102568710B1
KR102568710B1 KR1020160038243A KR20160038243A KR102568710B1 KR 102568710 B1 KR102568710 B1 KR 102568710B1 KR 1020160038243 A KR1020160038243 A KR 1020160038243A KR 20160038243 A KR20160038243 A KR 20160038243A KR 102568710 B1 KR102568710 B1 KR 102568710B1
Authority
KR
South Korea
Prior art keywords
electronic device
contact
human body
wearable electronic
signal
Prior art date
Application number
KR1020160038243A
Other languages
English (en)
Other versions
KR20170111931A (ko
Inventor
정민규
국승빈
김학준
강성훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160038243A priority Critical patent/KR102568710B1/ko
Priority to US15/475,047 priority patent/US10496225B2/en
Publication of KR20170111931A publication Critical patent/KR20170111931A/ko
Application granted granted Critical
Publication of KR102568710B1 publication Critical patent/KR102568710B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B13/00Transmission systems characterised by the medium used for transmission, not provided for in groups H04B3/00 - H04B11/00
    • H04B13/005Transmission systems in which the medium consists of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예들에 따른 전자장치는, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 접촉 감지 모듈과, 상기 전자장치의 외부에서 상기 도전성 물체가 접촉된 인체의 접촉 위치를 감지하는 위치 감지 모듈과, 상기 접촉 감지 모듈을 통하여 상기 인체의 접촉이 감지되는 동안에 상기 위치 감지 모듈을 통하여 상기 인체의 위치가 감지되는 경우, 상기 감지된 접촉 위치에 대응하는 디스플레이의 영역에 그래픽을 표시하는 프로세서를 포함할 수 있다.
그 밖의 다양한 실시예가 가능하다.

Description

전자장치 및 그 동작 방법{ELECTRONIC DEVICE AND OPERATING METHOD THEREOF}
본 발명의 다양한 실시 예들은 인체 통신에 기반하는 입력신호를 처리하는 전자 장치 및 그의 동작 방법에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, 스마트 폰(smart phone), 태블릿(tablet) PC(Personal Computer), PDA(Personal Digital Assistant), 전자수첩, 노트북(notebook) 또는 웨어러블 디바이스(wearable device) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 상기 전자 장치는, 다른 장치들의 기능까지 아우르는 모바일 컨버전스(mobile convergence) 단계에 이르고 있다. 예를 들어, 전자 장치는 음성통화 및 영상통화 등과 같은 통화 기능, SMS(Short Message Service)/MMS(Multimedia Message Service) 및 전자메일(e-mail) 등과 같은 메시지 송수신 기능, 전자수첩 기능, 촬영 기능, 방송 재생 기능, 동영상 재생 기능, 음악 재생 기능, 인터넷 기능, 메신저 기능, 게임 기능, 또는 소셜 네트워크 서비스(SNS, Social Networking Service) 기능 등을 제공할 수 있다.
전자장치는 다양한 형태로 디자인되고 있다. 이런 형태 중의 하나가 웨어러블 전자장치가 될 수 있다.
10-2014-0137227
웨어러블 전자장치는 사용자가 착용할 수 있는 전자장치가 될 수 있다. 웨어러블 전자장치는 입력이 제한될 수 있다. 예를들면, 웨어러블 전자장치의 터치 입력 방법은 터치 패널 및 디스플레이가 일체화된 터치 스크린 상에서 이루어질 수 있다. 웨어러블 전자장치는 화면 면적이 작은 터치 스크린을 가질 수 있다. 따라서 작은 화면의 크기를 가지는 웨어러블 전자장치에서 터치 입력은 기기 화면을 가질 수 있으며, 화면의 작은 크기에 의해 터치 입력이 제한될 수 있다.
본 발명의 다양한 실시 예들에서는 웨어러블 전자장치에서 인체 통신에 기반하여 입력 면적을 확장할 수 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시 예들에 따른 웨어러블 전자장치는 인체 통신에 기반하여 인체에 터치되는 입력을 인식할 수 있는 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시 예들에 따른 웨어러블 전자장치는 인체 통신에 기반하여 터치 입력이 감지되면 감지된 터치 입력의 위치를 인식할 수 있는 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시 예들에 따른 웨어러블 전자장치는 인체 통신에 기반하여 터치 입력 및 터치 입력의 위치를 인식하고, 인식된 터치 입력에 대응되는 기능을 수행할 수 있는 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시예에 따른 전자장치는, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 접촉 감지 모듈과, 상기 전자장치의 외부에서 상기 도전성 물체가 접촉된 인체의 접촉 위치를 감지하는 위치 감지 모듈과, 상기 접촉 감지 모듈을 통하여 상기 인체의 접촉이 감지되는 동안에 상기 위치 감지 모듈을 통하여 상기 인체의 위치가 감지되는 경우, 상기 감지된 접촉 위치에 대응하는 디스플레이의 영역에 그래픽을 표시하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자장치의 동작 방법은, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 과정과, 상기 전자장치의 외부에 위치한 상기 도전성 물체의 인체 접촉 위치를 감지하는 과정과, 상기 감지된 도전성 물체의 인체 접촉 위치에 대응하는 디스플레이 상의 영역에 그래픽을 표시하는 과정을 포함할 수 있다.
본 발명의 다양한 실시 예들에 따른 웨어러블 전자 장치 및 그 동작 방법은, 디스플레이 화면이 작은 전자장치의 화면을 직접 접촉하지 않고 전자장치의 주변 공간(예를들면, 피부 등의 인체)을 접촉하여 전자장치의 입력신호를 발생할 수 있다. 본 발명의 다양한 실시예에 따른 웨어러블 전자장치는 작은 화면에 상관없이 인체를 통해 다양한 터치 입력을 발생할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자장치의 구성을 도시하는 도면이다.
도 2a 및 도 2b는 는 본 발명의 다양한 실시 예들에 따른 웨어러블 전자장치의 동작을 예시하는 도면이다.
도 3은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 접촉 감지 모듈의 구성을 도시하는 도면이다.
도 4는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 위치 감지 모듈의 구성을 도시하는 도면이다.
도 5a - 도 5d는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 접촉을 인식하는 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 접촉을 인식하는 다른 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 물체의 접촉 위치를 판단하는 동작을 설명하기 위한 도면이다.
도 8a 및 도 8b는 웨어러블 전자장치가 위치를 판정하는 예를 설명하기 위한 도면이다.
도 9는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치의 동작을 도시하는 흐름도이다.
도 10a - 도 10c는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 인식할 수 있는 접촉 입력의 예를 도시하는 도면이다.
도 11은 본 발명의 실시예에 따른 웨어러블 전자장치가 접촉에 기반하여 위치를 설정하는 동작을 도시하는 흐름도이다.
도 12a - 도 12c는 웨어러블 전자장치가 접촉에 기반하여 위치를 설정하는 동작을 예시하는 도면이다.
도 13은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치의 문자 인식 절차를 도시하는 흐름도이다.
도 14a 및 도 14b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 문자 인식 동작을 수행하는 예를 도시하는 도면이다.
도 15는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치와 외부 전자장치 간의 동작을 도시하는 흐름도이다.
도 16a 및 도 16b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치와 외부 전자장치 간의 동작을 예시하는 도면이다.
도 17은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 인체 통신에 따른 입력에 따라 동작을 제어하는 절차를 도시하는 흐름도이다.
도 18a 및 도 18b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 인체 통신에 따른 입력에 따른 동작을 예시하는 도면이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다
웨어러블 전자장치(wearable electronic device)는 신체에 부착하여 컴퓨팅 행위를 할 수 있는 전자장치가 될 수 있다. 웨어러블 전자장치는 안경(glass), 목걸이(neckless), 시계(watch), 반지(ring), 밴드(band) 등의 형태로 착용될 수 있다. 웨어러블 전자장치는 장치의 소형화에 따라 디스플레이 및 입력에 제한을 가질 수 있다. 사용자는 웨어러블 전자장치에 입력을 하는 경우, 디스플레이 화면을 가리게 될 수 있다. 또한 웨어러블 전자장치는 입력부 또한 작을 수 있으며, 이로인해 오입력이 발생될 수 있다. 웨어러블 전자장치는 디스플레이 화면을 가리지 않고 정확하게 입력을 할 수 있는 방법이 필요해질 수 있다.
웨어러블 전자장치는 신체의 일부에 접촉되는 특징을 가질 수 있다. 웨어러블 전자장치는 인체 통신 기능을 통해 입력 기능을 확장할 수 있다.
인체통신(human body communication)이란 사람의 신체를 전선과 같은 매개물질로 활용해 별도의 전력 소비 없이 인체에 통하는 전류를 이용하여 통신의 매체로 사용하는 기술이 될 수 있다. 인체통신(HBC)과 유사한 개념으로 사용되는 용어들로는Intra-Body Communication(IBC), Body-Coupled Communication, Off-to-On-Body Communications, Body Area Network(BAN), Body Sensor Networks, Body Channel 등이 될 수 있다. 인체통신 기술의 주요 구성 요소로는 접촉 감지, 신호해석 및 데이터 처리, 전극, 기타 장치 구조 등이 될 수 있다. 접촉 감지란 인체가 송수신 장치에 접촉되었는가를 감지하는 구조 또는 인체가 송수신장치에 접촉이 되었는지 판별하는 기술이 될 수 있다. 신호해석 및 데이터 처리는 데이터 송신부, 데이터 수신부 및 신호를 아날로그 또는 디지털로 변환하는 변환기를 포함할 수 있다. 전극은 인체에서 신호를 송신하는 전극 및 인체를 통하는 신호를 수신하는 전극 등이 될 수 있다.
인체 통신 기술은 전류 방식과 전계 방식 등이 사용될 수 있다. 전류 방식은 체내를 흐르는 전류의 변화를 이용하는 방식이 될 수 있다. 인체에 전자장치의 전극을 접촉시켜 미세한 전류의 변화를 감지하는 방식이 될 수 있다. 예를들면, 인체를 흐르는 전류는 최대 500uA 정도가 될 수 있으며, 건강에 미치는 영향은 거의 없다고 할 수 있다. 전계 방식은 인체 표면의 전계 변화를 이용하는 방식이 될 수 있다. 전자장치의 송신기로부터 절연체를 이용하여 접촉하고 있는 인체에 전압을 걸 때 인체의 표면 전계가 변하는 것을 검출하는 방식이 될 수 있다.
이하에서 설명되는 본 발명의 다양한 실시 예들에서는, 상기 웨어러블 전자장치는 상기와 같은 전자 장치의 범주에 포함될 수 있으며, 전자 장치들 간에 연동하는 동작은 상기 웨어러블 전자장치와 다양한 전자 장치에서도 동작할 수 있다. 예를 들어, 본 발명의 다양한 실시 예들에서 웨어러블 전자 장치는 본 발명의 다양한 실시 예들에 따른 기능을 지원하는 모든 정보통신기기, 멀티미디어기기, 웨어러블 디바이스 및 그에 대한 응용기기와 같이 AP(application processor)), CP(communication processor), GPU(Graphic Processing Unit), 및 CPU(central processing unit) 등의 다양한 프로세서(예: 프로세서(120, 210)) 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다. 플렉서블 장치(flexible device)는 구부러짐이 가능한 전자장치가 될 수 있으며, 웨어러블 전자장치는 사용자가 착용 가능한 전자장치를 의미할 수 있다. 본 발명의 다양한 실시예에 따른 전자장치는 플렉서블하면서 웨어러블한 전자장치가 될 수 있다.
또한 웨어러블 전자장치는 다른 전자장치와 연결된 상태에서, 상기 전자 장치에 디바이스의 연결 또는 연결 해제에 따라 전자 장치와 웨어러블 디바이스 간에 상기 디바이스에 대응하는 기능을 연계하여 수행할 수 있도록 하는 동작을 수행할 수 도 있다.
이하 설명되는 본 발명의 다양한 실시 예에 따른 전자장치는 전류 방식을 사용하는 예를들어 설명될 것이다.
도 1은 본 발명의 다양한 실시예에 따른 전자장치의 구성을 도시하는 도면이다. 도 1의 전자장치는 웨어러블 전자장치(wearable electronic device)가 될 수 있다. 그리고 웨어러블 전자장치는 플렉서블 전자장치가 될 수 있다.
도 1을 참조하면, 전자장치는 프로세서 100, 메모리 110, 센서 모듈 120, 통신 모듈 130, 입력 모듈 140, 디스플레이 모듈 150을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치는 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
도 1의 전자장치는 하우징을 포함할 수 있다. 하우징은 제1 방향을 향하는 제1 면, 및 상기 제1 방향에 반대되는 제2 방향을 향하는 제2 면을 포함할 수 있다.
도 1의 전자장치에서 입력 모듈 140 및 디스플레이 모듈 150은 플렉서블 장치가 될 수 있으며, 일체형의 터치 스크린(또는 터치 스크린 센서)가 될 수 있다. 도 1의 전자장치에서 프로세서 100, 메모리 110, 센서 모듈 120, 및/또는 통신 모듈 130의 전부 또는 일부 구성요소는 하나 또는 둘 이상의 플렉서블 연성 인쇄 회로 기판(flexible PCB)으로 구성할 수 있다. 상기 연성 회로 기판은 상기 플렉서블 스크린 센서와 함께 휘거나(curved), 구부러지거나(bending), 말리거나(rolling), 접혀질(folding) 수 있다.
프로세서 100은, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 100은 예를 들면, 전자 장치의 적어도 하나의 다른 구성 요소들의 제어 및/또는 어플리케이션 실행에 따른 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리 110은 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리 110은 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령(command) 또는 데이터(data)를 저장할 수 있다. 메모리 110은 소프트웨어(software) 및/또는 프로그램(program)을 저장할 수 있다. 프로그램은 커널(kernel), 미들웨어(middleware), 어플리케이션 프로그래밍 인터페이스(application programming interface(API)) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는 운영 시스템(operating system(OS))으로 지칭될 수 있다.
센서 모듈 120은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 본 발명의 다양한 실시예에 따른 센서 모듈(120)은 인체 통신(human body communications)을 통해 인체 접촉(touch)을 감지하는 접촉 감지 모듈 180 및/또는 인체에 접촉된 위치를 감지하는 위치 감지 모듈 190을 포함할 수 있다. 접촉 감지 모듈 180은 전류 방식 또는 전계 방식에 기반하여 사용자의 인체 접촉을 감지할 수 있다. 본 발명의 다양한 실시예에서 접촉 감지 모듈 180은 전류 방식에 기반하여 사용자의 인체 접촉을 감지하는 것을 예로들어 설명될 것이다. 위치 감지 모듈 190은 사용자의 인체 접촉 위치를 감지할 수 있다. 위치 감지 모듈은 적외선 방식, 레이저 방식, 초음파 방식 등에 기반하여 접촉 위치를 감지할 수 있다. 본 발명의 다양한 실시예에서는 적외선 방식에 기반하여 접촉 위치를 감지하는 것을 예로들어 설명될 것이다.
센서 모듈 120은 접촉 감지 모듈 180 및 위치 감지 모듈 190 이외에 다른 센서들을 더 포함할 수 있다. 예를들면, 센서 모듈 120은 제스처 센서(gesture sensor), 자이로 센서(gyro sensor), 기압 센서(barometer), 마그네틱 센서(magnetic sensor), 가속도 센서(acceleration sensor), 그립 센서(grip sensor), 근접 센서(proximity sensor), 컬러 센서(color sensor) 240H(예: RGB(red, green, blue) 센서), 생체 센서(medical sensor), 온/습도 센서(temperature-humidity sensor), 조도 센서(illuminance sensor) 또는 UV(ultra violet) 센서들 중에서 적어도 하나를 더 포함할 수 있다.
본 발명의 다양한 실시예에서 상기 센서 모듈 120은 디스플레이가 플렉서블 디스플레이(flexible display)인 경우, 상기 전자장치의 휘어짐(flex, bending)을 감지하기 위한 벤딩 센서를 포함할 수 있다.
추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈 120은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는 전자 장치는 프로세서 100의 일부로서 또는 별도로, 센서 모듈 120을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서 100이 슬립(sleep) 상태에 있는 동안, 센서 모듈 120을 제어할 수 있다.
통신 모듈 130은 무선 통신 모듈 및 유선 통신 모듈을 셀룰러 통신모듈을 포함할 수 있다. 무선 통신 모듈은 셀룰러 통신 모듈 및 근거리 통신 모듈을 포함할 수 있다.
셀룰러 통신모듈은 LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(global system for mobile communications) 등 중 적어도 하나를 사용할 수 있다. 셀룰러 통신모듈은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 통신 모듈은 가입자 식별 모듈(예: SIM 카드)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 통신 모듈은 프로세서 100이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 통신 모듈은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
근거리 통신 모듈은 WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system, 또는 GPS(global positioning system)) 등 중 적어도 하나를 포함할 수 있다. MST는 전자기 신호를 이용하여 전송 데이터에 따라 펄스를 생성하고, 펄스는 자기장 신호를 발생시킬 수 있다. 전자장치는 자기장 신호를POS(point of sales)에 전송하고, POS는 MST 리더(MST reader)를 이용하여 자기장 신호를 검출하고, 검출된 자기장 신호를 전기신호로 변환함으로써 데이터를 복원할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 “Beidou”) 또는Galileo, the European global satellite-based navigation system중 적어도 하나를 포함할 수 있다. 이하,“GPS”는 “GNSS”와 혼용되어 사용(interchangeably used)될 수 있다.
유선 통신 모듈은, 예를들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232),또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다.
입력 모듈 140은 터치 패널(touch panel), (디지털) 펜 센서(pen sensor), 키(key) 또는 초음파(ultrasonic) 입력부들 중에 적어도 하나의 입력부를 포함할 수 있다. 터치 패널은 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널은 제어 회로를 더 포함할 수도 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서는, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키는 물리적인 버튼, 광학식 키, 또는 키패드(keypad)를 포함할 수 있다. 초음파 입력부는 마이크를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다. 본 발명의 다양한 실시예에 따른 입력부는 터치 패널이 될 수 있으며, 터치패널은 압력 센서 기능을 포함할 수 있다.
디스플레이 모듈 150은 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 모듈 150은 사용자에게 다양한 화면(예: 텍스트(text), 이미지(image), 비디오(video), 아이콘(icon), 또는 심볼(symbol) 등)을 표시할 수 있다.
입력 모듈 140과 디스플레이 모듈 150은 각각 일체형의 터치 스크린(touch screen)으로 구성할 수 있다. 터치스크린은 프로세서 100의 제어 하에 화면을 표시할 수 있으며, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치(touch), 제스처(gesture), 근접(proximity), 또는 호버링(hovering) 입력을 검출할 수 있다.
본 발명의 다양한 실시예들에서 전자장치가 웨어러블 전자장치이며, 상기 입력부 150 및 디스플레이 160은 플렉서블 디바이스(flexible device)가 될 수 있다. 본 발명의 다양한 실시예들에서 전자장치가 웨어러블 전자장치이며, 상기 입력부 150 및 디스플레이 160은 휘어지지 않는 장치(non-flexible device)가 될 수 있다.
이하에서 설명되는 본 발명의 다양한 실시 예들에서는, 상기 웨어러블 전자장치는 상기와 같은 전자 장치의 범주에 포함될 수 있으며, 전자 장치들 간에 연동하는 동작은 상기 웨어러블 전자장치와 다양한 전자 장치에서도 동작할 수 있다. 예를 들어, 본 발명의 다양한 실시 예들에서 웨어러블 전자 장치는 본 발명의 다양한 실시 예들에 따른 기능을 지원하는 모든 정보통신기기, 멀티미디어기기, 웨어러블 디바이스 및 그에 대한 응용기기와 같이 AP(application processor)), CP(communication processor), GPU(Graphic Processing Unit), 및 CPU(central processing unit) 등의 다양한 프로세서(예: 프로세서(120, 210)) 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다.
플렉서블 전자장치는 구부러짐이 가능한 전자장치가 될 수 있으며, 웨어러블 전자장치는 사용자가 착용 가능한 전자장치를 의미할 수 있다. 본 발명의 다양한 실시예에 따른 전자장치는 플렉서블하면서 웨어러블한 전자장치가 될 수 있다. 이하의 설명에서 플렉서블 전자장치와 웨어러블 전자장치는 동일한 의미로 사용될 것이다.
또한 웨어러블 전자장치는 다른 전자장치와 연결된 상태에서, 상기 전자 장치에 디바이스의 연결 또는 연결 해제에 따라 전자 장치와 웨어러블 디바이스 간에 상기 디바이스에 대응하는 기능을 연계하여 수행할 수 있도록 하는 동작을 수행할 수 도 있다.
프로세서 100은 메모리 110을 이용하여 어플리케이션의 실행을 제어할 수 있다. 어플리케이션(예: 어플리케이션 프로그램)은, 예를 들면, 홈(home), 다이얼러(dialer), SMS/MMS(short messaging service/multimedia messaging service), IM(instant message), 브라우저(browser), 카메라, 알람, 컨택트(contact), 음성 다이얼, 이메일, 달력, 미디어 플레이어, 앨범, 시계, 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
도 2a 및 도 2b는 본 발명의 다양한 실시 예들에 따른 웨어러블 전자장치의 동작을 예시하는 도면이다.
도 2a 및 도 2b는 시계 타입의 웨어러블 전자장치의 예를 도시하고 있다. 웨어러블 전자장치는 피부 등에 밀착하여 착용될 수 있는 소형 전자장치가 될 수 있다. 본 발명의 다양한 실시예에 따른 웨어러블 전자장치는 인체에 밀착된 장치가 근거리에서 동일 면(예를들면, 피부)에 도전성 물체(예를들면, 손가락, 펜 등)이 접촉되는 인식할 수 있다. 이하의 설명에서 물체는 도전성 물체가 될 수 있다. 또한 본 발명의 다양한 실시예에 따른 웨어러블 전자장치는 인체에 도전성 물체의 접촉이 감지되면 상기 전자장치의 외부에 위치한 도전성 물체 상의 사용자 위치(도전성 물체가 접촉된 인체의 위치)를 감지할 수 있다. 웨어러블 전자장치는 시계, 반지, 목걸이, 밴드, 옷 등의 형태를 가질 수 있다.
도 2a를 참조하면, 웨어러블 전자장치 200은 인체 210에 접촉을 감지하기 위한 신호 221을 송신할 수 있다. 신호 221은 접촉 감지 모듈 180에서 송신될 수 있다. 프로세서 100은 센서 모듈 120의 접촉 감지 모듈 180을 제어하여 신호 221을 인체에 송신할 수 있다. 신호 221은 사람이 느끼지 못하는 전기적인 신호가 될 수 있다. 접촉 감지 모듈 180은 전자장치의 외부인 인체 210에 신호 221을 전송하고, 인체 210을 통해 송신되는 신호를 수신할 수 있다. 이때 사용자가 인체 210에 접촉하지 않으면, 접촉 감지 모듈 180은 신호 221을 수신할 수 있다. 사용자가 인체 210에 물체 225와 같이 접촉(예를들면, 손가락 접촉)하면, 신호 221은 접촉된 물체 225를 통해 전류의 통로가 형성되어 신호 223으로 변화될 수 있다. 그러면 접촉 감지 모듈 1800은 인체 210에 송신되는 신호 221이 물체(225)의 접촉에 의해 물체(225)의 전류 통로가 형성되어 신호 223으로 변화되는 것을 감지할 수 있다. 예를들면, 프로세서 100)은 접촉 감지 모듈 180을 제어하여 신호 223을 송신하고 수신되는 신호의 레벨(예를들면, 신호의 크기, 신호의 세기, 파형 주기 등) 를 분석하며, 분석 결과 수신 신호가 송신 신호 233과 동일한 레벨이면 접촉되지 않은 것으로 인식하고, 수신 신호가 신호 223과 같이 변화되면 접촉이 발생된 것으로 인식할 수 있다.
도 2b를 참조하면, 프로세서 100은 센서 모듈 120의 접촉 감지 모듈 180을 통해 인체 210의 물체 225의 접촉을 감지하면, 위치 감지 모듈 190을 통해 물체(225)의 접촉 위치 233을 인식할 수 있다. 한 실시예에서, 프로세서 100은 접촉 감지 모듈 180을 통해 접촉을 감지하면 위치 감지 모듈 190을 활성화시켜 접촉 위치를 감지할 수 있다. 위치 인식 모듈 190은 물체 225의 접촉 위치를 감지하기 위한 센서를 포함할 수 있다. 위치 감지 모듈 190의 센서는 적외선 방식, 레이저 방식 또는 초음파 방식을 사용할 수 있다. 한 실시예에서 위치 인식 모듈 190은 적외선 방식의 센서를 사용할 수 있다. 예를들면, 적외선 방식의 센서는 적어도 하나의 적어도 하나의 발광 소자와 수광 소자 어레이를 포함할 수 있다. 접촉이 감지되면, 위치 감지 모듈 190은 프로세서 100의 제어 하에 물체 225의 접촉 위치 233을 감지하기 위한 신호 231을 송신하고, 수신되는 신호를 분석하여 물체 225의 접촉 위치 233을 인식할 수 있다. 예를들면, 위치 감지 모듈 190이 적외선 방식의 모듈이면, 위치 감지 모듈 190은 발광 소자를 활성화시켜 231과 같은 광 신호를 출력하고, 수광 소자 어레이를 통해 물체 233에 의해 반사되는 광신호들을 수광할 수 있다. 프로세서 100은 위치 감지 모듈 190의 수광 소자 어레이에서 감지되는 신호들을 분석하여 큰 세기를 반사광을 수신하는 수광 소자 및 수신 세기를 계산하여 접촉 위치 233을 추정할 수 있다.
상기 위치 감지 모듈 190의 발신부(예를들면, 발광 소자)는 인체의 제1 영역이 위치되는 웨어러블 전자장치의 제1 방향으로 신호를 송신할 수 있으며, 수신부(예를들면, 수광소자 어레이)는 인체의 제1 영역에 접촉되는 물체(도전성 물체, 예를들면, 손가락, 펜 등)에서 반사되는 신호를 수신할 수 있다. 예를들면, 웨어러블 전자장치가 손목에 착용되는 시계 타입이면, 인체의 제1 영역은 착용된 웨어러블 전자장치를 중심으로 손등(back of the hand) 방향(또는 손바닥(palm) 방향)이 될 수 있으며, 인체의 제2 영역은 웨어러블 전자장치를 중심으로 팔뚝(forearm) 방향이 될 수 있다.
프로세서 100은 접촉 감지 모듈 180에서 물체의 접촉이 감지되면, 위치 감지 모듈 190을 접촉 위치를 인식할 수 있다. 프로세서 100은 전자장치의 외부에 위치한 도전성 물체의 위치가 감지되면 인체의 제1 영역에 접촉된 것으로 판정할 수 있으며, 도전성 물체의 접촉 위치를 인식할 수 없으면 인체의 제2 영역에 접촉된 것으로 판정할 수 있다. 인체의 제2 영역 접촉으로 판정되면, 프로세서 100은 현재 실행중이던 어플리케이션을 백그라운 어플리케이션으로 전환하고 설정 어플리케이션을 실행 및 표시할 수 있다. 설정 어플리케이션을 현재 시간을 표시하는 시계 어플리케이션 등과 같이 특정 어플리케이션이 될 수 있으며, 또는 홈 화면을 표시하는 어플리케이션 등이 될 수 있다. 설정 어플리케이션을 실행하는 중에 제2 영역의 접촉이 인식되면, 프로세서 100은 설정 어플리케이션의 실행을 종료하고 백그라운드로 전환되었던 이전의 어플리케이션을 다시 실행할 수 있다.
한 실시예에서 전자장치는 접촉 감지 모듈 180을 통해 전자장치의 외부에 위치된 도전성 물체의 인체 접촉을 감지하면, 위치 감지 모듈 190을 활성화시킬 수 있다. 예를들면, 전자장치는 전자장치의 배터리 소모를 절약하기 위하여, 도전성 물체의 접촉이 감지되면 위치 감지 모듈 190을 구동하여 도전성 물체가 접촉된 인체의 위치를 감지하는 동작을 수행할 수 있다.
도 2a 및 도 2b에 도시된 바와 같이, 웨어러블 전자장치 200은 피부 등에 밀착하여 장착될 수 있으며, 웨어러블 전자장치 200의 주변 인체에 접촉을 감지할 수 있다. 한 실시예에서 웨어러블 전자장치 200은 인체(예를들면, 피부)에 밀착되어 근거리에 동일 면에 물체가 접촉되면 이를 인식할 수 있다. 한 실시예에서 웨어러블 전자장치 200은 인체에 물체의 접촉을 인식하면, 물체가 접촉된 위치를 인식할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 접촉 감지 모듈의 구성을 도시하는 도면이다.
도 3을 참조하면, 기준 신호 발생부310은 주기인 전기 신호를 출력할 수 있다. 전기 신호는 인체에 영향을 미치지 않는 약한 전류 크기를 가질 수 있다. 기준 신호 발생부 300에서 출력되는 전류는 수백 μA(예를들면, 최대 500 μA 이하)가 될 수 있다. 송신 전극 320 및 수신 전극 340은 인체 매질 330에 접촉될 수 있다. 송신 전극 320은 기준 신호 발생부 310에서 출력되는 전기 신호를 인체 매질 330에 전달할 수 있다. 수신 전극 340은 인체 매질 330을 통하는 기준 신호의 전류를 감지할 수 있다. 신호 수신부 350은 수신 전극 340에서 감지되는 신호를 디지털 데이터로 변환할 수 있다. 신호 수신부 350은 미세한 전류 신호를 증폭하는 증폭부 및 증복된 신호를 디지털 신호로 변환하는 구성(예를들면, 비교기 등)을 포함할 수 있다. 예를들면, 신호 수신부 350은 아날로그 펄스 신호를 디지털 펄스 신호로 변환할 수 있다.
프로세서 100은 신호 수신부 350에서 출력되는 신호의 크기를 분석하여 접촉 여부를 판정할 수 있다. 예를들면, 프로세서 100은 수신되는 신호의 크기가 기준 신호 발생부 310의 신호 크기와 동일하거나 허용된 범위 내의 크기를 가지면 인체 매질 330에 물체가 접촉되지 않은 것으로 판정할 수 있다. 예를들면, 프로세서 100은 수신되는 신호의 크기가 기준 신호 발생부 310의 신호 크기에 비바하여 작은 크기를 가지면 인체 매질 330에 물체가 접촉된 것으로 판정할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 위치 감지 모듈의 구성을 도시하는 도면이다.
도 4를 참조하면, 프로세서 100은 발광부 410을 구동하여 인체 매질(420) 방향으로 광을 조사할 수 있다. 발광부 410은 적어도 하나의 발광 소자를 포함할 수 있으며, 발광 소자에서 발광되는 빛은 방사형 형태로 인체 매질 420에 조사될 수 있다. 수광부 430은 N 개의 수광소자 431-43N으로 구성되는 어레이 구조를 가질 수 있다. 수광부 430은 인체 매질 420에 접촉된 물체에서 반사되는 광신호를 수광하여 전기 신호로 변환할 수 있다. 수광되는 신호는 접촉 물체에서 반사되는 신호가 가장 센 크기를 가질 수 있다. 변환부 440은 상기 수광소자 431-43N의 수에 대응되는 ADC(analog to digital converter) 441-44N을 포함할 수 있다. 변환부 440의 ADC 441-44N은 수광부 430의 대응되는 수광소자 431-43N에서 수신되는 신호를 디지털 데이터로 변환할 수 있다. 데이터 변환부 450은 변환부 440에서 변환된 각 수광소자의 디지털 데이터들을 변환하여 프로세서 100에 출력할 수 있다. 데이터 변환부 450은 변환부 440에서 출력되는 각 수광신호들에 관련된 병렬 디지털 데이터들을 직렬 디지털 데이터로 변환하는 병직렬 변환기(parallel to serial converter)가 될 수 있다.
프로세서 100은 위치 감지 모듈 190에서 출력되는 데이터들 중에서 가장 큰 신호 세기를 가지는 수광 소자를 확인하여 접촉이 인식된 물체의 로우 위치(row position, 인체 매질의 수평 위치, X 값)를 판정할 수 있으며, 수신되는 신호의 세기를 분석하여 접촉이 인식된 물체의 컬럼 위치(column position, 인체 매질의 수직 위치, Y 값)를 결정할 수 있다.
도 5a - 도 5d는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 도전성 물체의 접촉을 감지하는 동작을 설명하기 위한 도면이다.
도 5a를 참조하면, 제1 장치 500은 도 1과 같은 구성을 가지는 웨어러블 전자장치가 될 수 있으며, 제2 장치 510은 접촉을 감지하기 위한 다른 웨어러블 전자장치가 될 수 있다. 제1 장치 500은 접촉 감지 모듈 180 및 위치 감지 모듈 190을 구비할 수 있다. 제1 장치 500은 외부 자극 신호(예를들면, 인체 매질 530에 접촉되는 물체를 감지하는 신호)의 발생 여부를 판단하기 위하여, 551 단계에서 접촉 감지 모듈 180을 통해 미세 전류를 발신할 수 있다. 제1 장치 500의 접촉 감지 모듈 180에서 발진되는 미세 전류는 인체 매질 530을 통해 전파될 수 있다.
제2 장치 510은 인체 매질 530에 접촉되는 물체에 장착될 수 있다. 인체 매질 530은 피부가 될 수 있다. 접촉 물체는 인체의 일부(예를들면, 손가락, 팔 목, 손바닥 등) 또는 다른 장치(예를들면, 펜 등)가 될 수 있다. 제2 장치 510은 접촉 물체에 장착될 수 있다. 예를들면, 제2 장치 510은 도 5b와 같은 피부 밀착형 물체가 될 수 있다. 피부 밀착형 물체는 피부 밀착형 센서 및 회로를 포함할 수 있다. 도 5b와 같은 피부 밀착형 물체는 손바닥 등과 같이 보이지 않은 인체에 부착될 수 있으며, 바지 벨트 안쪽 부분이나 옷의 안쪽 등과 같이 피부에 밀착할 수 있는 물체에 부착될 수 있다. 예를들면, 제2 장치 510은 도 5c와 같은 반지 형태의 물체가 될 수 있다. 예를들면, 제2 장치 510은 도 5d와 같은 팔찌 형태의 물체가 될 수 있다. 반지 또는 팔찌 형태의 물체는 보편적인 장치의 형태가 될 수 있으며, 착용이 용이한 장치가 될 수 있다.
제2 장치 510은 도 3과 같은 접촉 감지 모듈 180의 구성에서 수신전극 340, 신호 수신부 350을 포함할 수 있으며, 접촉 감지신호를 제1 장치 500에 전송하기 위한 송신부 구성을 포함할 수 있다. 제2 장치 510은 561 단계에서 인체 매질 530을 통해 수신되는 전류량을 측정하여 접촉 여부를 판정할 수 있다. 접촉이 인식되면, 제2 장치 510은 563단계에서 물체 640의 인체 접촉을 인식하고, 송신부를 통해 제1 장치 510에 접촉되었음을 통보할 수 있다. 송신부는 근거리 무선 통신부(예를들면, 블루투스, 와이파이, NFC(near field communication) 등)가 될 수 있다.
제1 장치 500은 도 3과 같은 접촉 감지 모듈 180의 구성에서 기준신호 발생부 310 및 송신 전극 320을 포함할 수 있다. 제1 장치 500은 제2 장치 510에서 전송되는 신호를 수신할 수 있는 근거리 무선 통신부(예를들면, 블루투스, 와이파이, NFC 등)을 포함할 수 있다. 제2 장치 510으로부터 접촉 감지신호를 수신하면, 제1 장치 500은 위치 감지 모듈 190을 활성화시켜 접촉된 물체의 위치를 인식할 수 있다.
도 5a에 도시된 바와 같이, 웨어러블 전자장치는 제1 장치 500 및 제2 장치 510을 포함할 수 있다. 제2 장치 501은 도 5b와 같이 피부 밀착형 센서 등을 사용하여 피부에 밀착시키거나 피부에 밀착되는 옷 안 쪽 등에 장착할 수 있다. 또한 제2 장치 501은 도 5c 및 도 5d와 같이 착용 가능한 장치가 될 수 있다. 제1 장치 510 및 제2 장치 520을 사용하면, 제1 장치 500에서 생성된 전류 신호를 제2 장치 520에서 감지할 수 있다. 이때 제2 장치 510은 인체매질 530에 접촉되면 제1 장치 510에서 전송되는 미세 전류를 인체 매질 530을 통해 수신할 수 있으며, 미세 전류가 감지되면, 제2 장치 510은 인체 매질 530의 접촉되었음을 인식하고, 제1 장치 510에 접촉 감지신호를 송신할 수 있다.
도 6은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 도전성 물체의 접촉을 감지하는 다른 동작을 설명하기 위한 도면이다.
도 6을 참조하면, 웨어러블 전자장치 600은 도 1과 같은 구성을 가질 수 있다. 웨어러블 전자장치 600은 611단계에서 접촉 감지 모듈 180을 통해 인체 매질 630에 미세 전류 650을 발신할 수 있다. 미세 전류 650은 인체 매질 630을 통해 접촉 감지 모듈 180에 전달될 수 있다. 이때 인체 매질 630에 물체 640(예를들면, 손가락, 펜 등)가 접촉되지 않으면, 접촉 감지 모듈 180은 미세전류 650을 그대로 수신할 수 있다. 접촉 감지 모듈 180의 발신부는 기준신호 발생부 310 및 송신 전극 320을 포함할 수 있으며, 수신부는 수신 전극 340 및 신호 수신부 350을 포함할 수 있다.
웨어러블 전자장치 600은 613 단계에서 인체 매질 630을 통해 전류신호를 수신할 수 있으며, 615단계에서 수신되는 미세 전류의 크기를 분석하여 접촉 여부를 판정할 수 있다. 인체 매질 630에 물체 640이 접촉되지 않으면, 접촉 감지 모듈 180의 수신부는 발신부에서 전송되는 미세전류 650을 그대로 수신할 수 있다. 웨어러블 전자장치 600은 수신부의 신호를 분석하여 발신부에서 전송되는 미세전류 250의 크기와 동일하거나 허용된 범위의 전류크기를 가지면, 물체 640이 인체 매질 630에 접촉되지 않은 상태로 판정할 수 있다.
그러나 물체 640이 인체 630에 접촉되면, 접촉된 물체 640의 방향으로 전류 루프가 형성될 수 있으며, 이로인해 접촉 감지 모듈 180의 발신부에서 출력되는 미세 전류의 일부가 접촉된 물체 640 방향으로 참조번호 670과 같이 흐르게 된다. 이로인해 접촉 감지 모듈 180의 발신부에서 출력되는 미세 전류의 일부가 참조 번호 670과 같이 물체 640의 방향으로 흐르게 되어, 접촉 감지 모듈 180의 수신부는 참조번호 680과 같은 전류를 감지할 수 있게 된다. 웨어러블 전자장치 600은 발신부에서 출력되는 참조번호 650과 같은 전류가 참조번호 680과 같이 작아지면, 물체 640이 인체 640에 접촉된 것으로 판정할 수 있다.
도 7은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 물체의 접촉 위치를 판단하는 동작을 설명하기 위한 도면이다. 도 8a 및 도 8b는 웨어러블 전자장치가 위치를 판정하는 예를 설명하기 위한 도면이다.
도 7을 참조하면, 웨어러블 전자장치 700은 751 단계에서 접촉 감지 모듈 180을 통해 인체 매질 720에 미세 전류 710을 발신할 수 있다. 웨어러블 전자장치 700은 753단계에서 인체 매질 720을 통해 전달되는 전류신호를 수신할 수 있다. 웨어러블 전자장치 700은 도 5a 및 도 6에서 설명된 바와 같이 물체 730의 접촉 여부에 따라 다른 크기를 가지는 전류 신호를 수신할 수 있다. 예를들면, 인체 매질 720에 물체 730이 접촉되면, 접촉 감지 모듈 180에서 발신되는 미세 전류가 변화될 수 있다. 미세 전류의 변화는 전기신호의 변화량 또는 진동 수치의 변화량에 의해 감지될 수 있다. 웨어러블 전자장치 700은 755단계에서 수신되는 전류의 크기를 분석하여 물체 730의 접촉 여부를 판정할 수 있다. 인체 730에 물체 730이 접촉되지 않은 상태로 판단되면, 웨어러블 전자장치 700은 755 단계에서 이를 인식하고 접촉 감지 모듈 180을 통해 수신되는 전류 신호를 분석하는 동작을 수행할 수 있다.
755단계에서 접촉으로 판단되면, 웨어러블 전자장치 700은 761 단계에서 위치 감지 모듈 190을 통해 물체가 접촉된 인체의 위치를 인식할 수 있다. 위치 감지 모듈 190은 인체 매질 720 방향으로 접촉된 물체 730의 위치를 감지하기 위한 신호를 출력(예를들면, 광신호 조사)할 수 있다. 웨어러블 전자장치 700은 763 단계에서 위치 감지 모듈 190을 통해 물체 730에서 반사되는 광신호를 수신할 수 있다. 물체 730은 전자장치의 외부에서 인체에 접촉될 수 있다. 웨어러블 전자장치 700은 765 단계에서 수신되는 신호의 위치 및 신호 세기를 연산하여 전자장치의 외부인 인체에 접촉된 물체 730의 위치를 인식할 수 있다. 예를들면, 인체 720에 물체 730이 접촉되지 않으면 위치 감지 모듈 190은 반사되는 광 신호를 수신할 수 없다.
도 8a에 도시된 바와 같이, 물체 730이 인체 매질 720에 접촉되면, 위치 인식 모듈 190에서 조사되는 광신호는 물체 730에서 반사되어 위치 인식 모듈 190에 수광될 수 있다. 위치 인식 모듈 190은 수광되는 신호들의 세기를 분석하여 물체 730의 접촉 위치를 인식할 수 있다. 예를들면, 위치 인식 모듈 190은 도 4에 도시된 바와 같이 적어도 하나의 발광소자와 복수의 수광소자 어레이로 구성될 수 있다. 도 4와 같은 구성을 가지는 위치 감지 모듈 190의 수광 소자들은 물체 730의 위치에 따라 도 8b의 참조번호 810과 같이 광신호를 수신할 수 있다. 수신되는 광신호의 포락선(envelope) 820은 2차 함수의 형태를 가질 수 있다. 웨어러블 전자장치 700은 765단계에서 최대값을 가지는 광신호를 수신하는 수광소자 및 수신된 광신호의 세기를 연산하여 인체에 접촉된 물체 730의 위치를 판단할 수 있다. 웨어러블 전자장치 700은 최대 값의 광신호를 수신하는 수광 소자의 위치를 로우 위치(x 값)으로 설정하고, 수신되는 광신호의 최대값을 컬럼 위치(y 값)로 설정할 수 있다.
765 단계에서 전자장치의 외부 인체에 접촉된 물체 730의 접촉 위치를 연산한 후, 웨어러블 전자장치 700은 771 단계에서 도전성 물체가 접촉된 인체의 위치가 유효 위치인가 확인하고, 유효한 위치이면 773 단계에서 위치 정보를 생성할 수 있다. 이후 웨어러블 전자장치 700은 생성된 위치 정보에 따른 이벤트를 실행할 수 있다.
인체 매질 720(예를들면, 피부 등)에 밀착하여 웨어러블 전자장치 700은 밀착된 부분을 이용하여 주기적으로 약한 전기적 신호를 발신할 수 있다. 전기 신호 수신부 (전기 신호 발신 본체, 또는 다른 수신체)에서는 전기 신호의 변화량을 계속해서 측정할 수 있다. 이때 인체 매질 720의 특정 공간에 도전체인 물체 730(예를들면, 손가락)이 접촉되면, 웨어러블 전자장치 700은 전기 신호의 변화를 감지할 수 있으며, 전기 신호의 변화가 감지되면 물체 730의 접촉(예를들면, 터치)으로 인식할 수 있다. 물체 730의 접촉을 인식하면, 웨어러블 전자장치 700은 위치 감지 모듈 190(예를들면, 방사형 센서 (초음파, 방사형 적외선 등))을 통해 물체 730이 접촉된 인체의 위치를 추정하고, 추정된 위치를 최종 터치 신호로 판정할 수 있다.
접촉된 물체 730의 위치 연산은 위치 감지 모듈(예를들면, 적어도 1개 이상의 송신소자 및 복수의 수신 소자들을 구비하는 신호 방사형 센서(적외선 센서, 초음파 센서 등))을 이용할 수 있으며, 복수의 수신 소자들에서 수신되는 신호를 이용하여 물체 730의 접촉 위치를 연산할 수 있다. 접촉 위치의 연산 방법은 발신 소자에서 신호를 발신했을 때 물체 730에서 반사되어 수신 소자들에 인가될 수 있다. 다수의 수신 소자들에서 수신되는 신호 크기는 물체 730과 대향하는 방향에 위치되는 수광 소자에서 가장 큰 신호를 수신할 수 있으며, 해당 수광 소자를 기점으로 양측 방향에 위치되는 수광 소자들에서 작아지는 신호들을 수신할 수 있다. 이때 수신되는 신호들은 2차함수의 형태를 가질 수 있으며, 2차 함수로 피팅(fitting)하여 함수의 최대값 포인트로 (x,y) 좌표를 만들 수 있다. 이 방법은 수신 소자들의 개수와 원하는 해상도를 자유롭게 맞출 수 있다.
본 발명의 다양한 실시예에 따른 전자장치는, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 접촉 감지 모듈과, 상기 전자장치의 외부에서 상기 도전성 물체가 접촉된 인체의 접촉 위치를 감지하는 위치 감지 모듈과, 상기 접촉 감지 모듈을 통하여 상기 인체의 접촉이 감지되는 동안에 상기 위치 감지 모듈을 통하여 상기 인체의 위치가 감지되는 경우, 상기 감지된 접촉 위치에 대응하는 디스플레이의 영역에 그래픽을 표시하는 프로세서를 포함할 수 있다.
상기 접촉 감지 모듈은, 상기 전자장치 외부의 인체에 신호를 송신하는 발신부와, 상기 도전성 물체의 인체 접촉 여부에 따라 변화되는 상기 신호를 상기 인체를 통해 수신하는 수신부를 포함하며, 상기 프로세서는 상기 수신부에서 수신되는 신호의 변화에 기반하여 상기 도전성 물체의 인체 접촉 여부를 인식할 수 있다.
전자장치는 제2 전자장치를 더 포함하며, 상기 접촉 감지 모듈은, 상기 전자장치 외부의 인체에 신호를 송신하는 발신부와, 상기 제2 전자장치에서 전송되는 신호를 수신하는 무선 수신부를 포함하며, 상기 제2 전자장치는, 상기 도전성 물체가 인체에 접촉될 때, 상기 송신부에서 송신되는 신호의 변화를 상기 인체를 통해 수신하는 수신부와, 상기 수신부에 수신되는 신호를 상기 전자장치에 전송하는 무선 송신부를 포함할 수 있다.
상기 위치 감지 모듈은, 상기 인체 방향으로 신호를 송신하는 송신부와, 적어도 두개의 수신소자들을 포함하며, 상기 전자장치의 외부에서 인체에 접촉된 도전성 물체에서 반사되는 신호를 수신하는 수신부를 포함하며, 상기 프로세서는 상기 수신부에서 신호를 수신하는 수신소자들의 위치 및 수신 신호의 세기에 기반하여 상기 도전성 물체의 접촉 위치를 인식할 수 있다.
상기 위치 감지 모듈은 인체의 제1 영역 방향에 신호를 송신하며, 상기 프로세서는 상기 접촉 모듈을 통해 인체 접촉이 감지되면, 상기 위치 감지 모듈을 통해 상기 인체의 제1 영역의 물체 접촉 위치를 인식하며, 상기 인체의 제1영역에서 접촉 위치를 인식하지 못하면 인체의 제2 영역 접촉으로 인식하고, 설정된 어플리케이션을 디스플레이에 표시할 수 있다.
상기 프로세서는, 상기 제2 영역의 접촉이 인식되면 실행 중인 어플리케이션을 백그라운드로 전환하고 상기 설정된 어플리케이션을 상기 디스플레이에 표시하며, 상기 설정 어플리케이션을 실행하는 상태에서 상기 인체의 제2 영역 접촉이 인식되면 설정된 어플리케이션의 실행을 종료하고 백그라운드로 전환된 이전 어플리케이션을 표시할 수 있다.
상기 프로세서는 문자 인식 어플리케이션을 실행하며, 상기 접촉 감지 모듈을 통해 인체에 상기 도전성 물체의 접촉이 인식되면 상기 위치 감지 모듈을 통해 이동되는 도전성 물체의 접촉 위치들을 추적하며, 상기 접촉 감지 모듈을 통해 상기 도전성 물체의 인체 접촉 해제가 인식되면 추적된 상기 접촉 위치 정보를 저장하고, 상기 도전성 물체의 접촉 입력이 종료되면 상기 접촉 위치 정보들을 문자로 인식하여 상기 디스플레이에 표시할 수 있다.
상기 프로세서는, 상기 접촉 감지 모듈을 통해 상기 도전성 물체의 인체 접촉이 인식되면, 상기 위치 감지 모듈을 통해 상기 도전성 물체가 접촉된 위치를 인식하며, 상기 인식된 접촉된 위치에 기반하여 상기 디스플레이에 표시되는 화면의 대응되는 위치에 가이드 포인터를 표시할 수 있다.
상기 프로세서는 상기 디스플레이에 아이템 이미지를 표시하며, 상기 접촉 감지 모듈을 통해 상기 도전성 물체의 인체 접촉을 인식하면, 상기 위치 감지 모듈을 통해 상기 인체에서 이동되는 상기 도전성 물체의 이동을 인식하여 가이드 포인터를 이동 표시하며, 상기 아이템 이미지 위치에 가이드 포인터가 위치되면 접촉된 인체 위치를 대응되는 아이템 위치로 설정할 수 있다.
프로세서는 상기 도전성 물체의 접촉 위치가 아이템 위치이면 대응되는 아이템에 관련되는 어플리케이션을 실행하며 디스플레이에 표시할 수 있다.
전자장치는 외부 전자장치와 연결되는 통신 모듈을 더 포함하며, 상기 프로세서는 상기 통신 모듈을 통해 외부 전자장치와 연결되고, 상기 접촉 감지 모듈을 통해 상기 도전성 물체의 인체 접촉을 인식하고, 상기 위치 감지 모듈을 통해 상기 도전성 물체의 이동되는 접촉 위치를 인식하며, 상기 접촉 위치 정보에 제어 데이터를 생성하고, 상기 생성된 제어 데이터를 상기 통신 모듈을 통해 외부 전자장치에 전송할 수 있다
상기 제어 데이터는 문자 및/또는 제스처며, 상기 프로세서는 문자 및/또는 제스쳐에 대응되는 상기 외부 전자장치의 제어신호를 생성하여 상기 통신 모듈을 통해 전송할 수 있다.
도 9는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치의 동작을 도시하는 흐름도이다.
도 9를 참조하면, 웨어러블 전자장치(예를들면, 도 1의 프로세서 100)는 911 단계에서 인체 매질에 전기 신호를 발신할 수 있다. 전기 신호는 접촉 감지 모듈(예를들면, 도 1의 접촉 감지 모듈 180)을 통해 수행할 수 있다. 웨어러블 전자장치는 913 단계에서 접촉 감지 모듈을 통해 전자장치의 외부에 위치한 도전성 물체의 인체 접촉 여부를 감지할 수 있다. 사용자가 인체에 물체를 접촉하면, 웨어러블 전자장치는 913 단계에서 접촉 감지 모듈을 통해 사용자의 접촉을 감지하고, 915 단계에서 위치 감지 모듈(예를들면, 도 1의 위치 감지 모듈 190)을 통해 전자장치에 외부에 위치되어 인체에 접촉된 도전성 물체의 접촉 위치를 감지할 수 있다. 웨어러블 전자장치는 915 단계에서 위치 감지 모듈의 발신 소자를 통해 물체를 감지하기 위한 신호를 발신하며, 물체에서 반사되는 신호를 수신할 수 있다. 웨어러블 전자장치는 위치 감지 모듈에서 수신되는 신호들을 분석하여 접촉된 물체(도전성 물체, 예를들면, 손가락, 펜 등)의 위치(예를들면, x 및 y 좌표 값)를 분석할 수 있다. 웨어러블 전자장치는 전자장치의 외부인 인체에 접촉된 물체의 위치를 인식하면, 917 단계에서 접촉된 위치에 대응하는 디스플레이(예를들면, 도 1의 디스플레이 모듈 150)의 영역에 그래픽을 표시할 수 있다. 사용자는 인체에 접촉할 때 다양한 형태의 접촉 입력을 발생할 수 있다. 예를들면, 접촉 입력은 웨어러블 전자장치의 디스플레이에 표시되는 아이템 이미지(예를들면, 아이콘, 소프트 버튼 등)를 선택하는 입력, 문자(예를들면, 알파벳, 숫자, 기호 등) 입력, 제스처 입력(예를들면, 상하좌우 드래그 입력 등) 등이 될 수 있다.
한 실시예에 따르면, 디스플레이에 표시되는 그래픽은 웨어러블 전자장치에서 실행되는 어플리케이션에 기반할 수 있다. 예를들면, 아이템 화면이 표시되면, 웨어러블 전자장치는 인체에 접촉된 위치에 대응되는 화면의 위치에 인디케이터 및/또는 선택 입력으로 표시할 수 있다. 예를들면, 문자 인식 어플리케이션이 실행되면, 웨어러블 전자장치는 인체 접촉된 위치들을 감지하여 문자로 인식하며, 인식된 문자를 디스플레이에 표시할 수 있다. 예를들면, 외부 전자장치와 연결된 상태이면, 웨어러블 전자장치는 인체에 접촉되는 위치들을 감지하여 제어 데이터를 생성하고, 생성된 제어 데이터를 외부 전자장치에 전송할 수 있다.
도 10a - 도 10c는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치에서 인식할 수 있는 접촉 입력의 예를 도시하는 도면이다.
도 10a를 참조하면, 웨어러블 전자장치는 디스플레이에 아이템 이미지 화면 1011을 표시할 수 있다. 아이템 이미지 화면은 웨어러블 전자장치의 기능을 수행하기 위한 아이콘 또는 소프트 버튼 등의 이미지가 될 수 있다. 아이템 이미지 화면 1011을 표시하는 상태에서 웨어러블 전자장치는 인식된 접촉 위치에 기반하여 디스플레이에 가이드 포인터 1015를 표시할 수 있다. 웨어러블 전자장치는 접촉 위치가 원하는 아이템 이미지의 위치이면(예를들면, 가이드 포인터가 원하는 아이템 이미지 위치에 표시되면), 사용자는 해당 위치에 접촉을 해제할 수 있다. 접촉이 해제되면, 웨어러블 전자장치는 접촉 해제 위치의 아이템 이미지에 매핑되는 기능을 실행할 수 있다.
도 10b를 참조하면, 웨어러블 전자장치는 디스플레이에 제스처에 의해 동작을 제어하는 어플리케이션의 화면을 표시할 수 있다. 예를들면, 제스처에 의해 동작이 제어되는 어플리케이션은 뷰 어플리케이션(view application)(예를들면, 사진, ebook, 인터넷 실행 등의 어플리케이션)이 될 수 있다. 예를들면, 제스처는 상하좌우 드래그가 될 수 있다. 웨어러블 전자장치는 디스플레이의 화면 1021에 어플리케이션 화면을 표시할 수 있다. 사용자는 인체에 제스처(예를들면, 상하좌우 드래그) 접촉 입력을 해제하면, 웨어러블 전자장치는 접촉 입력의 시작 위치에서 접촉 해제 위치를 확인하여 제스처 입력 1023(예를들면, 터치 패턴, 터치 드래그 방향 등)을 확인할 수 있다. 웨어러블 전자장치는 확인된 제스처에 따라 어플리케이션의 동작을 실행할 수 있다.
도 10c를 참조하면, 웨어러블 전자장치는 디스플레이에 문자 인식 어플리케이션을 표시할 수 있다. 문자 인식 어플리케이션은 문자를 인식하는 어플리케이션 및 인식된 문자에 의해 기능을 실행하는 어플리케이션을 포함할 수 있다. 문자 인식 어플리케이션은 메시지(short message service, email message service, multi-media message service, social network service 등) 어플리케이션, 검색 어플리케이션(예를들면, 브라우저 어플리케이션) 등이 될 수 있다. 또한 문자 인식 어플리케이션은 외부 전자장치와 연결되어 외부 전자장치의 동작을 제어하는 어플리케이션을 포함할 수 있다. 웨어러블 전자장치는 접촉 감지 모듈을 통해 접촉이 인식되면 위치 감지 모듈을 활성화시켜 물체의 접촉 위치를 확인할 수 있다. 사용자는 문자 1033을 작성하기 위하여 터치된 상태에서 물체를 이동시키는 동작을 수행할 수 있다. 웨어러블 전자장치는 물체가 접촉된 상태에서 물체가 이동되면 이동되는 물체의 위치를 추적할 수 있다. 물체의 접촉이 해제되면, 웨어러블 전자장치는 접촉이 해제된 위치까지의 접촉 이동 정보를 저장할 수 있다. 이와 같은 동작을 반복하면서 접촉 입력의 동작이 종료되면(예를들면, 접촉 해제 후 다음 접촉이 설정된 시간동안 인식되지 않으면), 웨어러블 전자장치는 접촉 이동 정보들에 기반하여 문자 인식 동작을 수행할 수 있다. 문자 인식이 종료되면, 웨어러블 전자장치는 인식된 문자를 저장하거나, 또는 문자에 따른 제어 동작을 수행할 수 있다.
도 11은 본 발명의 실시예에 따른 웨어러블 전자장치가 접촉에 기반하여 위치를 설정하는 동작을 도시하는 흐름도이다.
도 11을 참조하면, 웨어러블 전자장치(예를들면, 도 1의 프로세서 100)는 1111 단계에서 사용자의 설정에 의해 위치 설정 어플리케이션을 실행할 수 있다. 위치 설정 어플리케이션은 디스플레이에 표시되는 화면의 아이템 이미지와 인체의 접촉 위치를 매핑시키는 어플리케이션이 될 수 있다. 위치 설정 어플리케이션은 학습에 의해 아이템 이미지와 전자장치의 외부에서 인체에 접촉되는 물체의 위치를 매핑시킬 수 있다. 위치 설정 어플리케이션이 실행되면, 웨어러블 전자장치는 1113 단계에서 접촉 감지 모듈(예를들면, 도 1의 접촉 감지 모듈 180)을 통해 인체 매질에 신호를 송신하고, 1115 단계에서 접촉 감지 모듈을 통해 전자장치의 외부에서 물체의 인체 접촉 여부를 감지할 수 있다. 물체의 인체 접촉이 인식되면, 웨어러블 전자장치는 1117 단계에서 위치 감지 모듈(예를들면, 도 1의 위치 감지 모듈 190)을 통해 물체의 접촉 위치를 인식할 수 있다. 접촉된 위치가 확인되면, 웨어러블 전자장치는 1119 단계에서 디스플레이 화면의 대응되는 위치에 가이드 포인터를 표시할 수 있다. 사용자는 디스플레이 화면에 표시되는 가이드 포인터의 위치를 확인할 수 있다. 예를들면, 가이드 포인터가 화면의 아이템 이미지 표시 위치 위치와 일치하지 않으면, 사용자는 접촉 위치를 변경할 수 있다. 접촉 위치가 변경되면, 웨어러블 전자장치는 1121 단계에서 접촉 위치가 아이템 이미지 위치와 일치하지 않음을 인식하고, 1113 단계로 되돌아가 물체의 접촉 감지 및 물체의 접촉 위치를 감지하는 동작을 반복 수행할 수 있다.
사용자는 물체의 접촉 위치를 변경하면서, 화면에 표시되는 가이드 포인터의 표시 위치를 확인할 수 있다. 웨어러블 전자장치는 가이드 포인터 위치가 아이템 이미지의 표시 위치와 일치하면 1121 단계에서 이를 인식하고, 1123 단계에서 접촉 위치를 포함하는 일정 영역을 대응되는 아이템 이미지의 영역으로 설정할 수 있다. 사용자는 접촉 위치를 변경하면서 화면에 표시되는 아이템 이미지들의 표시 위치와 맵핑되도록 접촉 위치를 변경할 수 있다. 그리고 웨어러블 전자장치는 가이드 포인터의 위치와 아이템 표시 위치가 일치하면 1121 단계에서 이를 인식하고, 1123 단계에서 접촉 위치를 중심으로 일정 영역을 대응되는 아이템 이미지의 접촉 영역으로 설정할 수 있다. 사용자는 화면에 표시되는 모든 아이템 이미지들의 접촉 영역을 설정할 수 있다. 위치 설정이 종료되면(예를들면, 설정된 시간 이상 접촉이 인식되지 않으면, 또는 종료 입력이 감지되면), 웨어러블 전자장치는 1125 단계에서 이를 인식하고 위치 설정 어플리케이션을 종료할 수 있다.
도 12a - 도 12c는 웨어러블 전자장치가 접촉에 기반하여 위치를 설정하는 동작을 예시하는 도면이다.
웨어러블 전자장치를 처음 사용할 때, 사용자의 인체(예를들면, 사용자 손등)의 위치와 디스플레이의 아이템 표시 위치가 일치하지 않을 수 있다. 그리고 웨어러블 전자장치를 처음 사용하는 경우, 화면에 표시되는 아이템 이미지의 표시 위치와 인체의 접촉 위치를 일치시키는 동작(예를들면, 위치 설정 어플리케이션)을 수행할 수 있다. 위치 설정 어플리케이션을 실행할 때, 웨어러블 전자장치는 사용자의 인체 접촉 위치에 대응되는 화면의 위치에 가이드 포인터를 표시할 수 있다. 예를들면, 웨어러블 전자장치는 사용자의 인체 접촉에 대응되는 화면의 위치에 가이드 포인터를 표시하고, 이를 학습하여 계속적으로 인식되는 접촉 위치에 아이템 이미지의 위치를 매핑시킬 수 있다.
도 12a를 참조하면, 위치 설정 어플리케이션이 실행되면, 웨어러블 전자장치는 접촉 감지 모듈을 통해 인체 접촉을 인식하고, 위치 감지 모듈을 통해 물체의 접촉 위치 1217를 인식할 수 있다. 물체의 접촉 위치 1217을 인식하면, 웨어러블 전자장치는 접촉 위치 1217에 대응되는 디스플레이 화면 1211의 위치에 가이드 포인터1215를 표시할 수 있다. 디스플레이 화면 1211에는 적어도 하나의 아이템 이미지 1213을 표시할 수 있다. 이때 최초 접촉인 경우, 접촉 위치 1217은 도 12의 가이드 포인터 1215와 같이 아이템 이미지 1213의 위치와 일치하지 않는 곳에 표시될 수 있다. 도 12a의 가이드 포인터 1215의 표시 위치는 두개의 아이템 이미지 사이에 위치되는 예를 도시하고 있다. 도 12a에 도시된 바와 같이 가이드 포인터 1215가 아이템 이미지들 사이에 표시되면, 웨어러블 전자장치는 접촉 위치 1217의 매핑 동작을 수행하지 않을 수 있다.
도 12b를 참조하면, 사용자는 가이드 포인터 1215에 기반하여 도 12a와 같이 접촉 위치 1217이 아이템 이미지들의 사이에 위치됨을 인식하고, 참조번호 1219와 같이 이동하여 접촉 위치 1217을 변경할 수 있다. 접촉 위치가 변경되면 웨어러블 전자장치는 접촉 감지 모듈을 통해 변경된 접촉을 인식하고, 위치 감지 모듈을 통해 변경된 접촉 위치를 인식할 수 있다. 접촉 위치가 변경되면, 웨어러블 전자장치는 가이드 포인터 1215의 표시 위치를 도 12b와 같이 변경할 수 있다. 이때 가이드 포인터 1215의 표시 위치가 아이템 이미지의 표시 위치와 일치하면, 웨어러블 전자장치는 대응되는 접촉 위치 1217을 중심으로 일정 영역을 아이템 이미지 1213의 접촉 영역으로 설정하고, 접촉 영역에 해당하는 위치 정보를 저장할 수 있다.
도 12c를 참조하면, 도 12a 및 도 12b와 같은 동작을 반복 수행하면, 디스플레이의 화면 1211에 표시되는 모든 아이템 이미지들에 대응되는 접촉 영역을 설정할 수 있다. 예를들면, 도 12b의 화면 1211에 표시되는 아이템 이미지들의 접촉 영역은 도 12c와 같이 설정될 수 있다. 도 12c에서 영역 1215은 디스플레이 화면에서 아이템 이미지들이 표시되는 영역에 대응될 수 있으며, 각 영역 1251은 아이템 이미지의 접촉 영역들을 포함할 수 있다. 예를들면, 아이템 이미지 1213의 접촉 영역은 영역 1253과 같이 매핑될 수 있다.
도 13은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치의 문자 인식 절차를 도시하는 흐름도이다.
도 13을 참조하면, 웨어러블 전자장치(예를들면, 도 1의 프로세서 100)는 1311 단계에서 문자 인식 어플리케이션을 실행할 수 있다. 웨어러블 전자장치는 문자를 입력할 때 작은 화면 때문에 입력이 불편할 수 있다. 또한 문자를 연속 입력할 때, 문자의 다음 획을 입력하기 위해 터치를 해제하는 경우, 웨어러블 전자장치는 터치 해제를 인식하지 못하여 문자를 오 인식할 수 잇다. 따라서 웨어러블 전자장치에서 문자를 인식할 때, 인체에 문자를 작성하여 입력의 불편을 해소할 수 있다. 또한 웨어러블 장치에서 문자를 작성할 때, 접촉 구간 및 접촉 해제 구간을 인식할 수 있으며, 이로인해 문자를 장성하는 중에 다음 획을 위해 터치를 해제하더라도 정상적으로 문자를 인식할 수 있다. 문자 인식 어플리케이션은 메시지 어플리케이션, 검색 어플리케이션, 외부 전자장치와 연결되어 문자에 의해 외부 장치의 동작을 제어할 수 있는 어플리케이션 등이 될 수 있다.
문자 인식 어플리케이션이 실행되면, 웨어러블 전자장치는 1313 단계에서 접촉 감지 모듈(예를들면, 도 1의 접촉 감지 모듈 180)을 통해 인체 매질에 신호를 송신하고, 1315 단계에서 접촉 감지 모듈을 통해 전자장치의 외부에서 인체의 물체(도전성 물체) 접촉 여부를 감지할 수 있다. 물체의 인체 접촉이 감지되면, 웨어러블 전자장치는 1317 단계에서 물체가 접촉된 위치를 인식할 수 있다. 예를들면, 웨어러블 전자장치는 물체의 인체 접촉이 인식되면 위치 감지 모듈(예를들면, 도 1의 위치 감지 모듈 190)을 통해 접촉된 물체의 위치를 인식할 수 있다. 접촉된 위치가 확인되면 전자장치는 확인된 접촉 위치 정보를 저장할 수 있다. 문자를 입력하는 경우, 사용자는 물체를 인체에 접촉시킨 상태에서 이동시키고 인체에 접촉하지 않은 상태에서 이동시킬 수 있다. 웨어러블 전자장치는 물체가 인체에 접촉된 상태 및 비접촉된 상태에서 이동되는 위치 정보를 인식하여 저장할 수 있다. 이때 스트로크의 형태는 직선 형태, 사선 형태, 교차형태, 원 형태 등과 같이 다양한 형태로 인식될 수 있다. 전자장치는 접촉 및 비접촉된 상태에서 이동되는 물체의 이동 궤적을 따라 인식되는 위치 정보들을 저장할 수 있다.
사용자가 접촉을 해제하면, 웨어러블 전자장치는 1321 단계에서 접촉 해제를 인식하고, 1323 단계에서 접촉 해제된 위치를 저장할 수 있다. 웨어러블 전자장치는 접촉이 해제되면 1323 단계에서 최초 접촉된 위치에서 접촉이 해제된 위치 정보를 통해 사용자가 입력한 접촉 이동 정보(예를들면, 문자를 작성하기 위한 스트로크 정보(stroke information))를 저장할 수 있다. 문자는 복수의 스트로크를 포함할 수 있다. 따라서 사용자는 문자를 입력하기 위하여 접촉을 해제한 상태에서 다음 스트로크를 입력하기 위하여 다시 인체에 물체를 접촉할 수 있다. 웨어러블 전자장치는 접촉 해제 후 설정된 시간 내에 접촉이 발생되면, 1313 단계 - 1319 단계를 수행하면서 접촉된 물체의 이동 위치를 인식할 수 있다. 그리고 물체의 인체 접촉이 해제되면, 웨어러블 전자장치는 1321 단계에서 접촉 해제를 인식하고, 1323 단계에서 연속 입력된 사용자의 입력(예를들면, 스트로크 입력) 정보를 저장할 수 있다.
접촉이 해제된 상태에서 설정 시간이 경과되면, 웨어러블 전자장치는 1325 단계에서 문자 입력의 종료로 인식하고, 1327 단계에서 저장된 입력 정보에 기반하여 문자 인식 동작을 수행할 수 있다. 문자 인식 동작은 숫자, 알파벳, 기호 등의 문자를 인식하는 동작이 될 수 있다. 문자 인식 동작을 수행한 후, 웨어러블 전자장치는 1329 단계에서 인식된 문자를 처리할 수 있다. 인식된 문자 처리 동작은 저장 및 인식된 문자에 기반하여 설정된 기능을 수행하는 동작을 의미할 수 있다. 예를들면, 외부 전자장치와 연결된 상태에서 외부 전자장치의 동작을 제어하는 어플리케이션을 실행하는 경우, 웨어러블 전자장치는 인식된 문자에 따른 제어 기능을 확인하고, 확인된 제어 정보를 외부 전자장치에 전송할 수 있다. 사용자가 문자 인식 어플리케이션을 종료하면, 전자장치는 1331 단계에서 이를 인식하고 문자 인식 어플리케이션을 종료할 수 있다.
도 14a 및 도 14b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 문자 인식 동작을 수행하는 예를 도시하는 도면이다.
도 14a를 참조하면, 웨어러블 전자장치는 디스플레이 화면 1411에 사용자에 의해 입력되는 문자를 표시할 수 있다. 인체(예를들면, 사용자의 손 등)에는 문자를 입력하는 영역 1421이 설정될 수 있다. 사용자가 영역 1421에 문자 1423을 입력하면, 웨어러블 전자장치는 화면 1411에 입력되는 문자 1413을 표시할 수 있다. 사용자가 입력하는 문자 1423은 참조번호 1425와 같이 접촉된 상태로 이동되어 이동 궤적이 인식되는 입력 및 참조번호 1427과 같이 접촉이 해제된 상태에서 이동되는 궤적이 존재할 수 있다. 도 14b의 1451 - 1459는 문자를 입력할 때 접촉 및 접촉 해제를 반복하면서 입력하는 문자들의 예가 될 수 있다. 웨어러블 전자장치는 1451 - 1459와 같은 문자들이 입력될 때, 최초 접촉 위치에서 접촉이 해제되는 위치까지의 이동되는 위치 정보들을 인식하고, 문자 입력이 종료되는 시점에서 인식된 복수의 위치 정보(예를들면, 스트로크 정보)들을 문자 인식할 수 있다.
도 15는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치와 외부 전자장치 간의 동작을 도시하는 흐름도이다.
도 15를 참조하면, 웨어러블 전자장치(예를들면, 도 1의 프로세서 100)는 1511 단계에서 외부 장치와 연결된 어플리케이션을 실행할 수 있다. 예를들면, 외부 전자장치는 멀티미디어 재생장치(예를들면, 텔리비젼, 오디오 기기, 세탑 박스 등)가 될 수 있다. 웨어러블 전자장치는 통신 모듈(예를들면, 도 1의 통신 모듈130)을 통해 외부 전자장치와 무선 연결될 수 있다. 무선 연결은 블루투스 통신 또는 와이파이 통신 방법으로 이루어질 수 있다. 웨어러블 전자장치는 외부 전자장치와 무선 연결(예를들면, paring)된 상태에서 인체 통신을 통해 외부 전자장치의 동작을 제어하기 위한 신호를 생성하여 전송할 수 있다.
외부 전자장치와 무선 연결되는 어플리케이션을 실행하는 상태에서, 웨어러블 전자장치는 1513 단계에서 접촉 감지 모듈(예를들면, 도 1의 접촉 감지 모듈 180)을 통해 인체 매질에 신호를 송신하고, 1515 단계에서 접촉 감지 모듈을 통해 전자장치의 외부에 위치되는 도전성 물체의 인체 접촉 여부를 감지할 수 있다. 물체의 인체 접촉이 인식되면, 웨어러블 전자장치는 1517 단계에서 위치 감지 모듈(예를들면, 도 1의 위치 감지 모듈 190)을 통해 인체에 접촉된 물체의 접촉 위치를 인식할 수 있다. 예를들면, 웨어러블 전자장치는 물체의 인체 접촉이 감지되면 위치 감지 모듈을 통해 인체에 접촉된 물체의 위치를 인식할 수 있다. 인체에 접촉된 물체의 접촉 위치가 확인되면 전자장치는 확인된 접촉 위치 정보를 저장할 수 있다. 사용자는 접촉을 유지한 상태에서 외부 전자장치의 동작 또는 기능을 제어하기 위한 입력을 할 수 있다. 입력은 문자 또는 제스처 입력이 될 수 있다. 웨어러블 전자장치는 접촉된 상태에서 이동되는 위치 정보를 인식하여 저장할 수 있다.
사용자가 인체에 접촉된 물체의 인체 접촉을 해제하면, 웨어러블 전자장치는 1521 단계에서 물체의 접촉 해제를 인식하고, 1523 단계에서 물체가 인체에서 접촉 해제된 위치를 저장할 수 있다. 웨어러블 전자장치는 접촉이 해제되면 1523 단계에서 최초 접촉된 위치에서 접촉이 해제된 위치 정보를 통해 사용자가 입력한 접촉 이동 정보(예를들면, 스트로크 정보(stroke information))를 저장할 수 있다. 문자 또는 제스처 입력은 복수의 스트로크를 포함할 수 있다. 따라서 사용자는 문자를 입력하기 위하여 접촉을 해제한 상태에서 다음 스트로크를 입력하기 위하여 다시 인체에 물체를 접촉할 수 있다. 웨어러블 전자장치는 접촉 해제 후 설정된 시간 내에 접촉이 발생되면 1513 단계 - 1519 단계를 다시 수행하면서 인체에 접촉된 물체의 이동 위치를 감지할 수 있다.
입력이 종료되면, 웨어러블 전자장치는 동작 1525 단계에서 이를 인식하고, 1527 단계에서 입력된 문자 또는 제스처를 인식할 수 있다. 예를들면, 웨어러블 전자장치는 물체의 인체 접촉이 해제된 상태에서 설정 시간이 경과되면, 웨어러블 전자장치는 입력의 종료로 인식할 수 있다. 웨어러블 전자장치는 인식된 입력이 문자이면 1529 단계에서 이를 인식하고, 1531 단계에서 인식된 문자에 대응되는 제어 신호를 생성하여 통신 모듈을 통해 외부 전자장치에 전송할 수 있다. 웨어러블 전자장치는 인식된 입력이 제스처이면 1529 단계에서 이를 인식하고, 1533 단계에서 제스처에 대응되는 제어신호를 생성하여 통신 모듈을 통해 외부 전자장치에 전송할 수 있다. 웨어러블 전자장치는 외부 전자장치와의 연결 어플리케이션이 해제되면 1535 단계에서 이를 인식하고, 통신모듈을 제어하여 외부 전자장치와의 무선 연결을 해제할 수 있다.
도 16a 및 도 16b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치와 외부 전자장치 간의 동작을 예시하는 도면이다.
도 16a를 참조하면, 웨어러블 전자장치 1600은 통신 모듈을 통해 외부 전자장치 1650과 무선 연결된 상태가 될 수 있다. 웨어러블 전자장치 1600은 인체의 접촉을 감지할 수 있는 접촉 감지 모듈 및 물체의 접촉 위치를 감지할 수 있는 위치 감지 모듈을 구비할 수 있다. 접촉 감지 모듈은 영역 1610에 물체 1620이 접촉되면 인체 통신을 통해 물체 1620의 인체 접촉을 감지할 수 있다. 도 16a에서 물체는 펜(예를들면, 전자 펜)이 될 수 있다. 펜 1620이 영역 1610에 접촉되면, 웨어러블 전자장치 1600은 펜의 인체 접촉을 인식하고, 물체의 접촉 위치를 분석할 수 있다. 사용자가 펜 1620을 이용하여 입력 1630(예를들면, 문자 입력 또는 제스처 입력) 동작을 수행하면, 웨어러블 전자장치 1600은 펜 1620의 이동에 따른 입력을 인식할 수 있다. 이때 입력 1630은 문자 또는 제스처가 될 수 있다. 웨어러블 전자장치 1600은 인식된 입력 1630을 분석하여 외부 전자장치 1650을 제어하기 위한 신호를 생성할 수 있으며, 통신 모듈을 통해 제어신호를 외부 전자장치 1650에 전송할 수 있다.
전자 펜 1620은 내부에 접촉 및 접촉 위치를 감지할 수 있는 회로를 구비할 수 있다. 예를들면, 전자자 펜 1620은 인체 접촉(touch and release) 감지할 수 있을 뿐 아니라, 자체 회로 및 전력을 가지고 있을 수 있을 수 있다. 이런 경우, 전자 펜 1620은 펜의 인체 접촉을 감지하는 동작 및 접촉된 위치를 인식하는 동작을 수행할 수 있으며, 인식된 접촉 위치 정보를 웨어러블 전자장치 1600에 전송할 수 있다. 그러면 웨어러블 전자장치 1600은 펜 1620에 전송되는 위치 정보를 분석하여 외부 전자장치 1650의 동작을 제어하기 위한 신호를 전송할 수 있다. 또한 펜 1620은 인체 접촉 감지 및 접촉 위치를 인식한 후, 인식된 결과에 따른 제어신호를 외부 전자장치 1650에 직접 전송할 수도 있다. 이런 경우, 웨어러블 전자장치를 통하지 않고 펜 1620에서 인체 접촉 및 위치를 인식하여 외부 전자장치 1650의 동작을 제어할 수 있다
도 16b를 참조하면, 웨어러블 전자장치 1600은 통신 모듈을 통해 외부 전자장치 1650과 무선 연결된 상태가 될 수 있다. 웨어러블 전자장치 1600은 인체의 접촉을 감지할 수 있는 접촉 감지 모듈 및 물체의 접촉 위치를 감지할 수 있는 위치 감지 모듈을 구비할 수 있다. 도 16b에서 물체는 손가락이 될 수 있다. 접촉 감지 모듈은 영역 1610에 손가락 1640이 접촉되면 인체 통신을 통해 손가락 1640의 접촉을 감지할 수 있다. 손가락 1640이 영역 1610에 접촉되면, 웨어러블 전자장치 1600은 인체 접촉을 인식하고, 인체에 손가락이 접촉된 위치를 인식할 수 있다. 웨어러블 전자장치 1600은 인식된 접촉 위치들을 분석하여 손가락 1640에 의해 입력되는 문자 또는 제스처를 인식할 수 있으며, 인식 결과에 따라 외부 전자장치 1650을 제어하기 위한 신호를 생성할 수 있다. 이후 웨어러블 전자장치 1600은 통신 모듈을 통해 제어신호를 외부 전자장치 1650에 전송하여 외부 전자장치 1650의 동작을 제어할 수 있다.
예를들면, 외부 전자장치 1650은 텔리비젼이 될 수 있으며, 웨어러블 전자장치 1600은 외부 전자장치 1650의 입력 도구(예를들면, remote controller)로 동작될 수 있다. 사용자는 펜 또는 손가락을 이용하여 인체에 외부 전자장치 1650의 채널 또는 볼륨을 제어하기 위한 입력을 행할 수 있다. 예를들면, 웨어러블 전자장치 1600은 인체에 접촉되는 물체(예를들면, 손가락, 펜 등)의 접촉 경로를 추적하여 문자 또는 제스처(예를들면, 상하좌우 드래그 동작)를 인식할 수 있다. 예를들면, 웨어러블 전자장치 1600은 숫자가 인식되면, 인식된 숫자를 외부 전자장치 1650에 채널 선택 정보로 전송할 수 있으며, 드래그 입력이면 방향 및 드래그 길이에 따라 볼륨 제어 정보를 설정하여 외부 전자장치 1650에 전송할 수 있다.
따라서 외부 전자장치를 조작할 때, 별도의 제어 장치를 확인하지 않고 손등 또는 손바닥 등의 인체를 통해 외부 전자장치의 동작을 제어할 수 있다. 예를들면, 사용자는 텔리비젼을 시청하면서 인체를 통해 텔리비젼의 동작을 제어할 수 있다. 예를들면, 외부 전자장치의 화면이 웹 브라우저 화면을 표시하고 있는 경우, 사용자는 인체에 검색 또는 데이터 입력을 위한 문자 입력을 발생할 수 있으며, 웨어러블 전자장치는 인체를 통해 인식되는 접촉 위치를 인식하여 문자 데이터를 생성하고, 생성된 문자 데이터를 외부 전자장치에 전송할 수 있다.
도 17은 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 인체 통신에 따른 입력에 따라 동작을 제어하는 절차를 도시하는 흐름도이다.
도 17을 참조하면, 웨어러블 전자장치(예를들면, 도 1의 프로세서 100)는 설정된 어플리케이션을 실행하며, 디스플레이에 실행되는 어플리케이션의 화면을 표시할 수 있다. 웨어러블 전자장치는 인체 접촉에 기반하는 입력을 인식하여 웨어러블 전자장치의 동작을 제어할 수 있다. 어플리케이션을 실행하는 상태에서, 웨어러블 전자장치는 1711 단계에서 접촉 감지 모듈(예를들면, 도 1의 접촉 감지 모듈 180)을 통해 전자장치의 외부에 위치되는 인체 매질에 신호를 송신하고, 1713 단계에서 접촉 감지 모듈을 통해 전자장치의 외부에서 인체에 접촉되는 물체의 인체 접촉 여부를 감지할 수 있다. 인체 접촉이 감지되면, 웨어러블 전자장치는 1715 단계에서 위치 감지 모듈을 통해 전자장치의 외부에서 인체에 접촉된 물체의 위치를 감지할 수 있다. 접촉 감지 모듈 및 위치 감지 모듈은 도 6 및 도 7과 같은 방법으로 인체의 제1 영역의 접촉 및 위치를 감지할 수 있다. 즉, 웨어러블 전자장치는 물체의 인체 접촉을 감지하면, 웨어러블 전자장치는 위치 감지 모듈을 통해 인체의 제1 영역 방향으로 접촉 위치를 감지하기 위한 신호를 출력하고, 제1 영역으로부터 감지되는 신호를 분석하여 물체의 접촉 위치를 감지할 수 있다. 이때 제1 영역으로부터 물체를 감지하는 신호가 수신되면, 웨어러블 전자장치는 물체가 인체의 제1 영역에 접촉되었음을 감지할 수 있다. 물체가 인체의 제1 영역에 접촉되었음을 감지하면, 웨어러블 전자장치는 1717 단계에서 위치 감지 모듈을 통해 수신되는 신호를 분석하여 제1 영역의 접촉 위치를 인식할 수 있다. 접촉 위치를 인식한 후, 웨어러블 전자장치는 1719 단계에서 제1 영역의 접촉 위치에 기반하여 입력 신호를 확인하고, 확인된 입력 신호에 따라 실행 중인 어플리케이션을 디스플레이에 표시할 수 있다.
웨어러블 전자장치는 위치 감지 모듈을 통해 제1 영역에 접촉된 물체의 감지신호가 수신되지 않으면, 1715 단계에서 물체가 인체의 제2 영역에 접촉된 것으로 판정할 수 있다. 제2 영역의 접촉이면, 웨어러블 전자장치는 1721 단계에서 현재 실행 중인 어플리케이션을 중단(예를들면, 백그라운드 어플리케이션으로 전환)하고, 설정된 어플리케이션을 실행할 수 있으며, 설정된 어플리케이션을 디스플레이에 표시할 수 있다. 설정된 어플리케이션은 사용자가 가장 빈번하게 실행하는 어플리케이션이 될 수 있다. 예를들면, 설정 어플리케이션은 현재 시간을 표시하는 시계 어플리케이션이 될 수 있다. 설정 어플리케이션을 실행하는 중에 사용자가 물체를인체의 제 2 영역에 접촉하면, 웨어러블 전자장치는 1723 단계에서 접촉 감지 모듈 및 위치 감지 모듈을 통해 물체가 인체의 제2 영역에 접촉되었음을 감지할 수 있다. 제2 영역의 접촉을 감지하면, 웨어러블 전저장치는 1725 단계에서 중단되었던 어플리케이션을 다시 실행(예를들면, 백그라운드로 전환된 어플리케이션을 포그라운드 어플리케이션으로 전환)하고, 실행되는 어플리케이션을 디스플레이에 표시할 수 있다.
도 18a 및 도 18b는 본 발명의 다양한 실시예에 따른 웨어러블 전자장치가 인체 통신에 따른 입력에 따른 동작을 예시하는 도면이다.
도 18a 및 도 18b를 참조하면, 웨어러블 전자장치 1800은 접촉 감지 모듈 및 위치 감지 모듈을 포함할 수 있다. 인체의 제1 영역 1810은 웨어러블 전자장치 1800의 위치 감지 모듈의 신호를 송신하는 방향이 될 수 있으며, 인체의 제2 영역 1820은 위치 감지 모듈이 신호를 송신하는 방향이 될 수 있다. 도 18a에 도시된 바와 같이 실행 중인 어플리케이션은 웨어러블 전자장치 1800의 디스플레이 화면에 표시될 수 있다. 그리고 제1 영역 1810에 물체의 접촉 1830이 발생되면, 접촉 감지 모듈은 물체의 인체 접촉을 감지할 수 있으며, 위치 감지 모듈은 인체의 제1 영역 1810에 접촉된 위치를 감지할 수 있다. 따라서 웨어러블 전자장치 1800은 인체의 제1 영역 1810의 접촉 및 물체가 접촉된 위치를 인식할 수 있다. 웨어러블 전자장치 1800은 인식된 접촉 위치에 기반하여 어플리케이션의 동작을 제어할 수 있으며, 디스플레이에 이를 표시할 수 있다.
사용자가 도 18b와 같이 인체의 제2 영역 1820에 물체가 접촉되면, 웨어러블 전자장치 1800은 접촉 감지 모듈을 통해 인체 접촉1840을 인식할 수 있다. 이때 위치 감지 모듈은 신호를 송신하는 방향과 반대 방향인 제2 영역 1820의 인체 접촉 1840을 감지하지 못할 수 있다. 물체의 접촉 1840의 위치를 인식하지 못하면, 웨어러블 전자장치 1800은 인체의 제2 영역 1820의 접촉으로 판정하고, 실행중이던 어플리케이션을 중단하고 디스플레이 화면에 설정된 어플리케이션(예를들면, 시계 어플리케이션)의 화면을 표시할 수 있다. 예를들면, 웨어러블 전자장치 1800은 실행 중이던 화면을 백그라운드 어플리케이션으로 전환할 수 있다. 또한 설정 어플리케이션의 화면을 표시하는 중에 제2 영역 1820의 접촉 1840을 인식하면, 웨어러블 전자장치 1800은 설정 어플리케이션의 표시를 종료하고, 중단한 어플리케이션의 화면을 도 18a와 같이 표시할 수 있다. 예를들면, 설정 어플리케이션을 실행하는 중에 제2 영역 1820의 접촉이 인식되면, 웨어러블 전자장치 1800은 백그라운드로 전환되었던 어플리케이션을 디스플레이 화면에 표시할 수 있다.
웨어러블 전자장치 1800은 위치 감지 모듈이 신호를 출력하는 방향의 인체 영역을 제1 영역 1810으로 설정하고, 반대 방향의 인체 영역을 제2 영역으로 설정할 수 있다. 그리고 제2 영역 1820의 접촉이 인식되면, 웨어러블 전자장치 1800은 설정된 어플리케이션을 자동으로 실행할 수 있다. 설정 어플리케이션은 화면 켜기, 시계 화면 등과 같이 물리적 버튼이나 한번의 터치로 실행할 수 있는 어플리케이션이 될 수 있다. 웨어러블 전자장치 1800은 작은 디스플레이 안에서는 다양한 입력 UI를 표시하기 어려울 수 있다. 따라서 도 17과 같은 방법으로 입력 동작을 수행하면, 웨어러블 전자장치 1800은 한번의 접촉에 의해 특정 기능을 수행할 수 있다.
도 17 및 도 18a - 도 18b는 웨어러블 전자장치가 인체 접촉(예를들면, 피부를 터치)을 인식하였을때, 위치 감지 모듈이 접촉 위치를 인식하지 못하면 제2 영역 1820이 접촉된 것으로 판정하는 예가 될 수 있다. 예를들면, 도 1의 접촉 감지 모듈 180은 도 3 및 도 6에 도시된 바와 같이 송신 전극 320이 제2 영역 1820 방향의 인체에 밀착될 수 있으며, 수신 전극 350이 제1 영역 1810의 인체에 밀착될 수 있다. 인체에 접촉이 발생되지 않으면, 수신 전극 350은 송신 전극 320에서 송신되는 전류를 그대로 수신할 수 있으며, 접촉이 감지되면 송신 전극 320에서 송신되는 전류의 일부가 접촉 물체(예를들면, 도전체) 측으로 흘러 수신 전극 350에서 감지되는 전류의 량이 감소될 수 있다. 이때 제1 영역 1810의 접촉에 의해 감소되는 전류의 량과 제2 영역 1820의 접촉에 의해 감소되는 전류의 량이 다를 수 있다. 따라서 웨어러블 전자장치 1800은 물체 접촉에 의해 감소되는 전류의 량에 기반하여 제1 영역 1810의 접촉 또는 제2 영역 1820의 접촉을 판단할 수도 있다.
본 발명의 다양한 실시예에 따른 전자장치의 동작 방법은, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 과정과, 상기 전자장치의 외부에 위치한 상기 도전성 물체의 인체 접촉 위치를 감지하는 과정과, 상기 감지된 도전성 물체의 인체 접촉 위치에 대응하는 디스플레이 상의 영역에 그래픽을 표시하는 과정을 포함할 수 있다.
상기 도전성 물체의 인체 접촉을 감지하는 과정은, 상기 전자장치 외부의 인체에 신호를 송신하는 과정과, 상기 도전성 물체의 상기 인체 접촉 여부에 따라 변화되는 상기 신호를 상기 인체를 통해 수신하는 과정과, 상기 수신되는 신호의 변화에 기반하여 상기 도전성 물체의 인체 접촉 여부를 감지하는 과정을 포함할 수 있다.
상기 도전성 물체의 인체 접촉 위치를 인식하는 과정은, 상기 인체에 상기 도전성 물체의 접촉 위치를 감지하기 위한 신호를 송신하는 과정과, 상기 인체에 접촉된 도전성 물체에서 반사되는 신호를 적어도 두 개의 수신소자를 통해 수신하는 과정과, 상기 수신 소자들의 위치 및 수신 신호의 세기에 기반하여 상기 도전성 물체의 인체 접촉 위치를 감지하는 과정을 포함할 수 있다.
상기 도전성 물체의 인체 접촉 위치를 감지하는 동작은, 상기 도전성 물체의 인체 접촉 위치를 감지하면 상기 인체의 제1 영역에 상기 도전성 물체의 접촉을 감지하기 위한 신호를 송신하는 과정과, 상기 인체에 접촉된 도전성 물체에서 반사되는 신호를 적어도 두개의 수신소자를 통해 수신하는 과정과, 상기 수신소자들의 위치 및 수신신호의 세기에 기반하여 상기 도전성 물체가 접촉되는 인체의 제1영역의 위치를 인식하는 과정과, 상기 제1 영역에서 상기 도전성 물체의 접촉 위치를 인식하지 못하면 인체의 제2 영역의 접촉으로 감지하는 과정을 포함할 수 있다. 상기 디스플레이 상의 영역에 그래픽을 표시하는 과정은, 상기 도전성 물체의 인체의 제2 영역 접촉을 인식하면 설정된 어플리케이션을 표시하는 과정을 더 포함할 수 있다.
상기 설정된 어플리케이션을 표시하는 과정은, 상기 설정된 어플리케이션을 표시하는 상태에서 상기 인체의 제2 영역에서 상기 도전성 물체의 접촉이 감지되면 상기 설정 어플리케이션의 표시를 종료하고 백그라운드로 전환된 이전 어플리케이션을 표시하는 과정을 더 포함할 수 있다.
상기 디스플레이 상의 영역에 그래픽을 표시하는 과정은, 문자 인식 어플리케이션을 실행하는 과정을 더 포함하며, 상기 문자 인식 어플리케이션을 실행하는 과정은, 상기 상기 전자장치의 외부에 위치한 상기 도전성 물체의 인체 접촉이 감지되면 상기 인체에 도전성 물체가 접촉되는 위치들을 감지하는 과정과, 상기 도전성 물체의 인체 접촉 해제가 인식되면 상기 도전성 물체의 인체 접촉 위치 정보를 저장하는 과정과, 상기 접촉 위치 정보들을 분석하여 문자로 인식하여 표시하는 과정을 포함할 수 있다.
상기 디스플레이 상의 영역에 그래픽을 표시하는 과정은, 상기 도전성 물체의 접촉된 위치에 기반하여 디스플레이의 대응되는 위치에 가이드 포인터를 표시하는 과정과, 상기 가이드 포인터의 위치가 아이템 위치이면 선택된 아이템에 대응되는 어플리케이션을 상기 디스플레이에 표시하는 과정을 포함할 수 있다.
상기 전자장치의 동작 방법은, 통신 모듈을 통해 외부 전자장치와 연결하는 과정과, 상기 전자장치의 외부에 위치한 도전성 물체의 인체 접촉을 감지하는 과정과, 상기 전자장치의 외부에 위치한 상기 도전성 물체의 인체 접촉 위치를 감지하는 과정과, 상기 감지된 접촉 위치에 기반하여 상기 외부 전자장치의 제어 데이터를 생성하는 과정과, 상기 통신 모듈을 통해 외부 전자장치에서 상기 제어 데이터를 전송하는 과정을 더 포함할 수 있다.

Claims (20)

  1. 사용자가 착용하는 전자 장치에 있어서,
    제1 방향을 향하는 제1 면, 및 상기 제1 방향에 반대되는 제2 방향을 향하는 제2 면을 포함하는, 하우징;
    상기 제1 면을 통하여 시인되는(viewed) 디스플레이;
    상기 제2 면에 배치되어 상기 사용자에 의해서 상기 전자 장치가 착용되었을 때 상기 사용자의 신체의 제1 부분과 접촉되는 제1 센서;
    제2 센서;
    상기 디스플레이, 상기 제1 센서, 및 상기 제2 센서와 작동적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는:
    상기 제1 센서로부터 상기 사용자의 상기 신체로 전송되고 상기 제1 센서에 의해 측정된 신호의 세기 변화에 기초하여, 상기 사용자의 신체가 도전성 물체와 접촉되었음을 식별하고,
    상기 식별에 기초하여, 상기 제2 센서를 이용함으로써 상기 도전성 물체와 접촉한 상기 신체의 접촉 위치를 인식하고,
    상기 인식된 접촉 위치가 상기 신체의 제2 부분에 위치하는지 여부를 결정하고,
    상기 인식된 접촉 위치가 상기 제2 부분에 있다는 결정에 기초하여, 상기 인식된 접촉 위치의 변화를 상기 제2 센서를 이용하여 추적(tracking)하고, 및
    상기 인식된 접촉 위치에 기초하여, 상기 인식된 접촉 위치에 대응되는 상기 디스플레이의 일 영역에 가이드 포인터(guidance pointer)를 표시하는, 전자 장치.
  2. 제 1 항에 있어서,
    상기 제1 센서는 상기 사용자의 상기 신체에 신호를 송신하는 송신부와, 상기 도전성 물체와 상기 신체의 접촉 여부에 따라 세기가 변화되는 신호를 수신하는 수신부를 포함하며,
    상기 프로세서는 상기 사용자의 상기 신체를 통하여 상기 신호의 강도 변화를 인식하는, 전자 장치.
  3. 제 1 항에 있어서,
    상기 제1 부분은 상기 사용자의 손목 부분이고,
    상기 제2 부분은 상기 사용자의 손등이며, 및
    상기 도전성 물체는 상기 사용자의 손가락인, 전자 장치.
  4. 제 2 항에 있어서, 상기 제2 센서는:
    상기 신체의 상기 제2 부분을 향하여 위치 신호를 송신하는 위치 송신부와,
    적어도 두개의 수신 소자들, 및
    상기 사용자의 상기 신체에 접촉된 도전성 물체에 의해 상기 위치 신호가 반사되는 물체 신호를 수신하는 위치 수신부를 포함하며,
    상기 프로세서는 상기 적어도 두개의 수신 소자들의 위치 및 상기 물체 신호의 세기에 기반하여 상기 접촉 위치의 변화를 인식하는, 전자 장치.
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서,
    상기 프로세서는 문자 인식 어플리케이션을 실행하며,
    상기 인식된 접촉 위치 정보를 저장하고,
    상기 문자 인식 어플리케이션을 사용하여 상기 정보를 문자로 인식하고, 및
    상기 신체의 상기 제2 부분에서 상기 도전성 물체의 접촉이 종료되면, 상기 인식된 문자를 상기 디스플레이에 표시하는, 전자 장치.
  8. 삭제
  9. 제 1 항에 있어서,
    상기 프로세서는 상기 디스플레이에 아이템 이미지들을 표시하며,
    상기 가이드 포인터가 상기 아이템 이미지들 중 하나의 위치에 위치하면, 상기 아이템 이미지들 중 하나의 위치와 대응되는 위치를 상기 신체의 접촉 위치로 결정하는, 전자 장치.
  10. 제 1 항에 있어서,
    상기 프로세서는 상기 디스플레이에 아이템 이미지들을 표시하며,
    상기 가이드 포인터가 상기 아이템 이미지들 중 하나의 위치에 위치하면, 상기 아이템 이미지들 중 하나에 대응하는 제3 어플리케이션을 실행하고, 상기 제3 어플리케이션을 상기 디스플레이에 표시하는, 전자 장치.
  11. 제 1 항에 있어서,
    외부 전자 장치와 연결되는 통신 모듈을 더 포함하며,
    상기 프로세서는:
    상기 통신 모듈을 이용하여 상기 외부 전자 장치와 무선 연결하고,
    상기 도전성 물체의 접촉 위치 정보에서 제어 데이터를 생성하고,
    상기 생성된 제어 데이터를 상기 통신 모듈을 통해 상기 외부 전자 장치로 전송하는, 전자 장치.
  12. 제 11 항에 있어서,
    상기 제어 데이터는 문자 및 제스처 중 적어도 하나이며,
    상기 프로세서는 문자 및 제스쳐 중 적어도 하나에 대응되는 상기 외부 전자 장치의 제어 신호를 생성하고,
    상기 통신 모듈을 통해 상기 제어 신호를 전송하는, 전자 장치.
  13. 사용자가 착용한 전자 장치의 동작 방법에 있어서,
    상기 사용자의 신체의 제1 부분과 접촉하는 제1 센서를 이용함으로써, 상기 제1 센서로부터 상기 사용자의 상기 신체로 전송되고 상기 제1 센서에 의해 측정된 신호의 세기 변화에 기초하여 상기 사용자의 상기 신체가 도전성 물체와 접촉되었음을 식별하고,
    상기 사용자의 신체가 상기 도전성 물체에 접촉되었음이 식별되었을 때, 제2 센서를 이용하여, 상기 도전성 물체와 접촉한 상기 신체의 접촉 위치를 인식하고,
    상기 접촉 위치가 상기 사용자의 상기 신체의 제2 부분에 위치하는지 여부를 결정하고,
    상기 인식된 접촉 위치가 상기 사용자의 상기 신체의 상기 제2 부분에 위치하는 경우, 상기 인식된 접촉 위치의 변화를 상기 제2 센서를 이용하여 추적(tracking)하고,
    상기 인식된 접촉 위치에 대응되는 디스플레이의 일 영역에 가이드 포인터(guidance pointer)를 표시하는, 동작 방법.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020160038243A 2016-03-30 2016-03-30 전자장치 및 그 동작 방법 KR102568710B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160038243A KR102568710B1 (ko) 2016-03-30 2016-03-30 전자장치 및 그 동작 방법
US15/475,047 US10496225B2 (en) 2016-03-30 2017-03-30 Electronic device and operating method therof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160038243A KR102568710B1 (ko) 2016-03-30 2016-03-30 전자장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20170111931A KR20170111931A (ko) 2017-10-12
KR102568710B1 true KR102568710B1 (ko) 2023-08-21

Family

ID=59961556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160038243A KR102568710B1 (ko) 2016-03-30 2016-03-30 전자장치 및 그 동작 방법

Country Status (2)

Country Link
US (1) US10496225B2 (ko)
KR (1) KR102568710B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133735B2 (en) * 2016-02-29 2018-11-20 Rovi Guides, Inc. Systems and methods for training a model to determine whether a query with multiple segments comprises multiple distinct commands or a combined command
CN108196775B (zh) * 2017-12-19 2020-12-01 努比亚技术有限公司 截图控制方法、柔性屏终端以及计算机可读存储介质
KR102521734B1 (ko) * 2018-01-08 2023-04-17 삼성전자주식회사 복수의 어플리케이션들을 실행하는 웨어러블 장치와 이의 동작 방법
KR102450499B1 (ko) * 2018-06-04 2022-10-06 한국전자통신연구원 근접 센서를 포함하는 송신 장치 및 이를 이용한 생체 통신 방법
CN112673276A (zh) * 2018-09-06 2021-04-16 苹果公司 超声波传感器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7023426B1 (en) 2002-09-16 2006-04-04 Hewlett-Packard Development Company, L.P. User input device
US9100493B1 (en) 2011-07-18 2015-08-04 Andrew H B Zhou Wearable personal digital device for facilitating mobile device payments and personal use
US8624836B1 (en) 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
JP4683148B2 (ja) 2009-02-27 2011-05-11 株式会社デンソー 電気機器
US8933912B2 (en) 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
KR20140021166A (ko) 2012-08-09 2014-02-20 주식회사 브이터치 2차원 가상 터치 장치
JP5772804B2 (ja) * 2012-12-03 2015-09-02 株式会社デンソー 操作デバイス、及び操作デバイスの操作教示方法
CN105473021B (zh) * 2013-03-15 2018-01-19 智能专利有限责任公司 可穿戴设备及相关***
KR101999958B1 (ko) * 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR102034587B1 (ko) 2013-08-29 2019-10-21 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR20150061420A (ko) 2013-11-27 2015-06-04 엘지전자 주식회사 스마트 워치 및 그 동작 방법
US20150261405A1 (en) 2014-03-14 2015-09-17 Lynn Jean-Dykstra Smith Methods Including Anchored-Pattern Data Entry And Visual Input Guidance
JP6204324B2 (ja) 2014-04-08 2017-09-27 松本 美司 ウェアラブル情報端末、及び、充電システム
CN103984437B (zh) * 2014-04-28 2017-09-29 京东方科技集团股份有限公司 一种穿戴式触控装置和穿戴式触控方法

Also Published As

Publication number Publication date
KR20170111931A (ko) 2017-10-12
US10496225B2 (en) 2019-12-03
US20170285871A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
KR102568710B1 (ko) 전자장치 및 그 동작 방법
US10509560B2 (en) Electronic device having flexible display and method for operating the electronic device
EP3252640B1 (en) Method for launching application and terminal
KR102553493B1 (ko) 터치 감지 장치 및 펜과 위치 측정 방법
US10191574B2 (en) Flexible electronic device and operating method thereof
US10761650B2 (en) Touch sensing device for determining information related to pen, control method therefor, and pen
KR102544780B1 (ko) 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
CN109923502B (zh) 有源触控笔
US20160299570A1 (en) Wristband device input using wrist movement
KR20170112494A (ko) 안테나 장치를 포함하는 전자 장치
CN109478108B (zh) 触控笔通信信道
CN106293076A (zh) 通信终端及智能终端手势识别方法和装置
CN107924286B (zh) 电子设备及电子设备的输入方法
CN109844702B (zh) 一种对电子设备的控制方法以及输入设备
US10691180B2 (en) Wearable electronic devices having a multi-use single switch and methods of use thereof
CN108652594B (zh) 用于测量生物计量信息的电子设备和方法
KR20150145729A (ko) 지문 입력을 통한 화면 이동 및 서비스 선택 방법, 지문 센서를 구비한 착용형 전자 장치 및 컴퓨터 프로그램
KR20160143428A (ko) 펜 단말기 및 그 제어방법
US11294481B2 (en) Detection of pen location relative to an electronic device
KR102032196B1 (ko) 점자 인식이 가능한 하이브리드 워치
KR101524162B1 (ko) 손가락 움직임을 이용한 데이터 입력 장치와 그를 적용한 시스템 및 그 방법
US20150293608A1 (en) Electronic device and text input method thereof
KR20210094192A (ko) 사용자의 생체 정보를 획득하는 전자 장치 및 그 동작 방법
KR20230087961A (ko) 브러쉬형 액티브 스타일러스 펜과 이를 이용한 입력 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant