KR20190093003A - 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법 - Google Patents

지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR20190093003A
KR20190093003A KR1020180012403A KR20180012403A KR20190093003A KR 20190093003 A KR20190093003 A KR 20190093003A KR 1020180012403 A KR1020180012403 A KR 1020180012403A KR 20180012403 A KR20180012403 A KR 20180012403A KR 20190093003 A KR20190093003 A KR 20190093003A
Authority
KR
South Korea
Prior art keywords
fingerprint
area
image
touch input
processor
Prior art date
Application number
KR1020180012403A
Other languages
English (en)
Inventor
김용석
김선아
김정후
프루신스키 발레리
허창룡
현석
송경훈
조치현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180012403A priority Critical patent/KR20190093003A/ko
Priority to PCT/KR2018/016015 priority patent/WO2019151642A1/ko
Publication of KR20190093003A publication Critical patent/KR20190093003A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06K9/00013
    • G06K9/00087
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시 예들에 따른 전자 장치는, 터치 디스플레이, 상기 터치 디스플레이의 적어도 일부 영역에 형성된 지문 센서, 메모리, 및 상기 터치 디스플레이를 통해, 검출되는 상기 적어도 일부 영역에 대한 제1 터치 입력에 기반하여, 상기 지문 센서를 이용하여 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고, 상기 획득된 제1 이미지 및 상기 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하도록 설정되는 프로세서를 포함할 수 있다.

Description

지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법{APPARATUS AND METHOD FOR RECOGNIZING OF FINGERPRINT}
다양한 실시 예들은, 지문을 인식하는 방법 및 그 전자 장치(electronic device)에 관한 것이다.
스마트 폰과 같은 전자 장치는 전화번호 및 인증 정보(예: 비밀번호)와 같은 다양한 종류의 개인 정보를 저장할 수 있다. 이에 따라, 전자 장치는 타인으로부터 전자 장치에 저장된 개인 정보를 보호하기 위해 인증 서비스를 제공할 수 있다. 예를 들어, 전자 장치는 홍채, 지문, 얼굴, 손금, 정맥과 같은 생체 정보를 이용한 인증 서비스(예: 생체 인식서비스)를 제공할 수 있다.
지문을 인식하는 기술이 발달함에 따라, 물리적 버튼을 포함하는 지문 센서에 의한 지문 입력 이외에도, 디스플레이 내부에 지문 센서를 통합함으로써 디스플레이를 통한 지문 입력 방식이 요구될 수 있다. 다만, 지문 센서가 디스플레이 내부에 배치되는 경우, 지문의 상태에 따라 지문 인식의 성공률이 감소할 수 있다. 따라서, 지문 인식의 성공률을 증가시키기 위한 방안(solution)이 요구될 수 있다.
다양한 실시 예들은, 터치 입력을 가이드하는 정보를 표시함으로써, 지문의 상태를 변경시켜 지문의 인식률을 향상시킬 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시 예들에 따른 전자 장치는, 터치스크린, 메모리, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 터치스크린을 통해 검출되는 제1 터치 입력에 기반하여, 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고, 상기 획득된 제1 이미지 및 상기 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치스크린을 통해 표시하도록 구성될 수 있다.
다양한 실시 예들에 따른 전자 장치는, 터치스크린, 상기 터치스크린 하단에 배치되는 다수의 지문 센서들, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 터치스크린을 통해 터치 입력을 검출하고, 상기 검출된 터치 입력의 위치가 상기 다수의 지문 센서들의 위치에 포함되는지 여부를 결정하고, 상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 구성될 수 있다.
다양한 실시 예들에 따른 전자 장치의 방법은, 터치스크린을 통해 검출되는 제1 터치 입력에 기반하여, 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고, 상기 획득된 제1 이미지 및 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 표시하도록 구성될 수 있다.
다양한 실시 예들에 따른 전자 장치의 방법은, 터치스크린을 통해 터치 입력을 검출하고, 상기 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치에 포함되는지 여부를 결정하고, 상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 구성될 수 있다.
다양한 실시 예들에 따른 전자 장치 및 방법은, 식별된 지문 상태에 기반하여, 터치 입력을 가이드하는 정보를 표시함으로써, 지문의 인식률을 향상시킬 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도를 도시한다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다.
도 3a 및 도 3b는 다양한 실시 예들에 따른 지문 상태의 예를 도시한다.
도 4는 다양한 실시 예들에 따른 지문 센서의 동작 원리를 도시한다.
도 5는 다양한 실시 예들에 따른 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 6a 및 도 6b는 다양한 실시 예들에 따른 전자 장치 내부에 지문 센서가 배치되는 예를 도시한다.
도 7은 다양한 실시 예들에 따른 제1 이미지를 획득하기 위한 전자 장치의 동작의 예를 도시한다.
도 8은 다양한 실시 예들에 따른 지문의 상태를 결정하기 위한 전자 장치의 동작의 예를 도시한다.
도 9는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 10은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.
도 11은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 12는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.
도 13은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 14a 내지 도 14c는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.
도 15는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 16은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.
도 17은 다양한 실시 예들에 따른 그립 센서에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 18a 및 도 18b는 다양한 실시 예들에 따른 그립 센서에 기반하여, 제2 터치 입력을 가이드하는 정보의 예를 도시한다.
도 19는 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.
도 20a 및 도 20b는 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보의 예를 도시한다.
본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.
이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시 예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시 예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시 예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다. 이러한 전자 장치의 기능적 구성은 도 1에 도시된 전자 장치(101) 내에 포함될 수 있다.
도 2를 참조하면, 전자 장치(101)는 표시 장치(160), 센서 모듈(sensor module)(176), 메모리(130) 및 프로세서(120) 를 포함할 수 있다.
표시 장치(160)는 데이터 또는 신호를 영상 또는 이미지의 형태로 출력할 수 있다. 다양한 실시 예들에서, 표시 장치(160)는 프로세서(120)의 제어 신호에 따라, 메모리(130) 또는 센서 모듈(176)로부터 수신한 데이터 또는 신호를 영상 또는 이미지의 형태로 출력할 수 있다. 다양한 실시 예들에서, 표시 장치(160)는 지문 입력을 가이드하기 위한 정보를 표시할 수 있다. 상기 정보는 지문의 형상 또는 이와 유사한 형상의 이미지를 포함할 수 있다. 예를 들면, 지문의 상태가 제1 상태에 대응(예: 지문이 건조한 상태, 지문에 유분이 적은 상태)하는 것으로 판단되는 경우, 표시 장치(160)는 프로세서(120)의 제어 신호에 따라, 사용자의 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 상기 제1 상태는, 지문이 건조한 상태, 지문에 유분이 부족하거나 없는 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 지문이 인증된 사용자에 대한 지문일 것으로 추정되나, 상기 입력된 지문에 대한 이미지가 상기 기준 이미지와 일치하지 않는 상태, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지 사이에 일치율이 지정된 값보다 낮은 상태, 또는 상기 입력된 지문에 대한 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율이 상기 기준 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율보다 정해진 값만큼 낮은 상태를 포함할 수 있다. 상기 터치 입력은 드래그 입력을 포함할 수 있다. 상기 터치 입력을 가이드하기 위한 정보는 제1 지점 및 제2 지점을 포함하는 도형, 격자로 배열된 다수의 객체들, 또는 특정 방향을 지시하는 화살표의 형태를 가질 수 있다. 표시 장치(160)는 사용자와 전자 장치(101)간에 상호작용을 위한 GUI(graphical user interface)를 표시할 수 있다. 다양한 실시 예들에 따라, 표시 장치(160)는 LCD(liquid crystal display), 또는 OLED(organic light emitting diode)를 포함할 수 있다. 다양한 실시 예들에 따라, 표시 장치(160)는 사용자의 터치 입력을 수신할 수 있는 TSP(touch screen panel) 모듈(222), 사용자의 터치 입력을 통해, 터치 입력에 관련된 사용자의 지문에 대한 정보를 획득하기 위한 지문 센서(224)와 전기적(electrically)으로 또는 기능적(operably)으로 결합될 수 있다.
다양한 실시 예들에 따라, 센서 모듈(176)은 전자 장치(101)의 내부 또는 외부와 관련된 상황(context)을 결정하기 위한 데이터를 수신할 수 있다. 센서 모듈(176)은 다양한 센서들(예: 그립 센서, 근접 센서, 지자기 센서, 자이로 센서, 조도 센서, 기압 센서, 압력 센서, 터치 센서, 또는 생체 인식 센서)과 통합되도록 구성될 수 있다. 예를 들어, 센서 모듈(176)은 사용자와 관련된 외부 상황에 대한 데이터를 프로세서(120)로 송신할 수 있다.
다양한 실시 예들에 따라, 센서 모듈(176)은 TSP 모듈(222), 지문 센서(224) 및 그립 센서(226)를 포함할 수 있다.
TSP 모듈(222)은 사용자의 터치 입력과 관련된 데이터를 수신할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 손가락 및 펜의 터치 입력을 감지할 수 있다. 상기 터치 입력은 터치 앤 릴리즈(touch and release), 드래그 앤 드롭(drag and drop), 롱 터치(long touch), 또는 포스 터치(force touch)를 포함할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 사용자의 터치가 입력되는 디스플레이 내의 위치, 사용자의 터치가 입력되는 면적에 관한 정보를 수신할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 사용자의 터치가 입력되는 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에 저장할 수 있다. 예를 들어, 전자 장치(101)의 사용자는 음성 통화를 수행하기 위해, 사용자의 귀(ear)에 상기 전자 장치(101)를 접촉할 수 있다. TSP 모듈(222)은 상기 접촉에 의해 야기된 터치 입력의 위치 및 면적(예: 디스플레이 전면)에 관한 정보를, 상기 접촉이 야기된 시간(예: 오전 11시 10분)에 매핑하고, 메모리(130)에 저장할 수 있다. TSP 모듈(222)은 다수의 터치 입력들에 관한 매핑 정보를 저장할 수 있다. 상술한 실시 예들에서, TSP 모듈(222)이 터치 입력의 위치 및 면적에 관한 정보를 상기 터치 입력이 발생한 시간에 매핑하는 것으로 설명되었지만, 이에 한정되는 것은 아니다. 예를 들어, TSP 모듈(222)은 프로세서(120)에게 터치 입력이 검출된 위치 및 면적에 관한 정보만을 제공하고, 프로세서(120)는 획득된 위치 및 면적에 관한 정보를 시간에 매핑할 수 있다.
다양한 실시 예들에 따라, TSP 모듈(222)은 표시 장치(160)의 동작 모드와 독립적으로 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 표시 장치(160)는 off 상태로 동작할 수 있다. 상기 off 상태는, 전자 장치(101)로부터 표시 장치(160)에게 전력은 공급되지만, 아무런 객체(object)도 표시되지 않은 상태, 표시 장치(160)상에 블랭크 스크린(blank screen) 또는 블랙 스크린(black screen)이 표시되는 상태를 포함할 수 있다. 상기 off 상태는 인액티브(inactive) 상태, 디액티베이션(deactivation) 상태, 슬립(sleep) 상태, 비활성화 상태, 유휴(idle) 상태와 같이 다양하게 언급될 수 있다. 상기 on 상태는, 프로세서(120)로부터 수신한 데이터 또는 신호에 기반하여, 적어도 하나의 객체가 표시 장치(160)상에 표시되는 상태를 포함할 수 있다. 상기 on 상태는, 액티브(active) 상태, 또는 활성화 상태와 같이 다양하게 언급될 수 있다. 다른 실시 예에 따라, 전자 장치(101)는 전자 장치(101)의 프로세서(120)가 슬립 상태일 때, 디스플레이를 통해 컨텐츠를 표시하는 모드로 동작할 수 있다. 예를 들어, 전자 장치(101)는 프로세서(120)가 슬립 상태에서 동작하는 동안, 현재 시간, 날짜, 적어도 하나의 어플리케이션으로부터 제공되는 알림을 나타내기 위한 적어도 하나의 아이콘을, 표시 장치(160)상에 나타낼 수 있다. 상기 모드는, AOD(always on display) 모드로 언급될 수 있다.
TSP 모듈(222)은 상기 표시 장치(160)의 on/off 상태에 관계 없이, 터치스크린을 통해 입력되는 사용자 터치를 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 off 상태로 동작하는 동안, 활성 상태에서 동작할 수 있다. TSP 모듈(222)은, 표시 장치(160)가 블랭크 스크린 또는 블랙 스크린을 표시하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 on 상태로 동작하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 수신된 터치 입력의 표시 장치(160)상의 위치 및 수신된 터치 입력의 면적에 관한 정보를 프로세서(120)에게 제공할 수 있다. 프로세서(120)는 TSP 모듈(222)로부터 제공받은 터치 입력에 관한 정보에 기반하여, 어플리케이션을 실행하거나, 표시 장치(160)의 표시를 변경할 수 있다.
다양한 실시 예들에 따라, TSP 모듈(222)은 수신된 터치 입력 및 수신된 터치 입력과 관련된 데이터를 프로세서(120)에게 제공할 수 있다. 예를 들어, TSP 모듈(222)은 표시 장치(160)가 off 상태로 동작하는 동안, 터치 입력을 수신할 수 있다. 이에 따라, TSP 모듈(222)은 표시 장치(160)의 off 상태 및 상기 수신한 터치 입력에 기반하여, 프로세서(120)에게 상기 표시 장치(160)를 on 상태로 전환(또는 변경)하기 위한 제어 신호를 송신할 수 있다. TSP 모듈(222)은 터치 입력과 관련된 데이터를 저장하기 위해, 메모리(130)에게 터치 입력의 위치, 면적, 시간에 관한 데이터를 송신할 수 있다. 예를 들어, 프로세서(120)는, TSP 모듈(222)로부터 상기 터치 입력과 관련된 데이터를 획득하고, 메모리(130)에게 상기 획득된 데이터 및 상기 획득된 데이터를 메모리(130)에 저장하도록 지시하는 제어 신호를 송신할 수 있다. 다른 예로, TSP 모듈(222)은, 메모리(130)에게 상기 획득된 데이터를 송신함으로써, 상기 획득된 데이터를 메모리(130)에 저장할 수 있다.
지문 센서(224)는 사용자의 터치 입력을 통해, 지문에 관련된 데이터를 수신할 수 있다. 지문 센서(224)는 사용자의 지문 내에 위치되는 골(valley) 및 마루(ridge)의 특징적인 패턴에 따라, 터치 입력에 관련된 사용자가 인증된 사용자인지 결정하기 위한 데이터를 수신할 수 있다. 다양한 실시 예들에 따라, 지문 센서(224)는 지문 내에 위치하는 골, 마루에 의해 반사되는 빛의 차이에 기반하는 광학 방식, 지문 내에 위치하는 골, 마루에 의해 반사되는 초음파의 위상 차이에 기반하는 초음파 방식, 또는 지문 내에 위치하는 골, 마루에 의해 야기되는 유전율의 차이에 기반하는 정전 방식에 따라 동작할 수 있다.
그립 센서(226)는 사용자에 의한 상기 전자 장치(101)의 파지 여부 및 파지한 손의 방향을 감지할 수 있다. 다양한 실시 예들에 따라, 그립 센서(226)는 자이로 센서(미도시), 지자기 센서(미도시), 또는 근접 센서(미도시)와 함께 통합되도록 구성될 수 있다. 예를 들어, 전자 장치(101)는 근접 센서를 통해, 검출 물체와 근접 센서간의 정전 용량의 변화 또는 자기장의 변화를 검출할 수 있다. 전자 장치(101)는 그립 센서(226)를 통해, 전자 장치(101)의 좌측 자기장의 변화의 크기 및 우측 자기장의 변화의 크기에 기반하여, 사용자가 상기 전자 장치(101)를 왼손 또는 오른손으로 파지하였는지 식별할 수 있다.
다양한 실시 예들에 따라, 그립 센서(226)는 프로세서(120)에게 사용자가 상기 전자 장치(101)를 파지한 손의 위치에 관한 정보를 송신할 수 있다. 예를 들어, 그립 센서(226)는 사용자가 왼손으로 상기 전자 장치(101)를 파지한 경우, 좌측 손에 의해 상기 전자 장치(101)가 파지되었음을 지시하는 정보를 프로세서(120)에게 송신할 수 있다. 프로세서(120)는 다수의 지문 센서들 중 좌측의 지문 센서가 위치하는 표시 장치(160)의 영역상에, 지문 입력을 위한 인터페이스를 표시하도록 제어할 수 있다. 다른 예를 들어, 그립 센서(226)는 사용자가 오른손으로 상기 전자 장치(101)를 파지한 경우, 우측 손에 의해 상기 전자 장치(101)가 파지되었음을 지시하는 정보를 프로세서(120)에게 송신할 수 있다. 프로세서(120)는 좌측 방향의 드래그 입력을 가이드하기 위한 화살표 도형을 표시 장치(160)를 통해 표시할 수 있다.
메모리(130)는 도1에 도시된 메모리(130)에 상응할 수 있다.
다양한 실시 예들에 따라, 메모리(130)는 전자 장치(101)를 제어하는 명령어, 제어 명령어 코드, 제어 데이터 또는 사용자 데이터를 저장할 수 있다. 예를 들면, 메모리(130)는 어플리케이션(application), OS(operating system), 미들웨어(middleware), 장치 드라이버(device driver)를 포함할 수 있다. 다른 예를 들어, 메모리(130)는 인증된 사용자에 의해 미리 저장되고, 전자 장치(101)의 잠금 상태를 해제하기 위해 이용되는 패턴 정보를 저장할 수 있다. 상기 패턴 정보는, 격자로 배열된 다수의 객체들의 순서에 관련된 정보일 수 있다. 또 다른 예를 들어, 메모리(130)는 터치 입력에 관련된 정보를 저장할 수 있다. 메모리(130)는, 프로세서(120)를 통해, TSP 모듈(222)로부터 사용자 터치가 입력된 표시 장치(160) 상의 위치 및 면적에 상기 터치가 입력된 시간이 매핑된 정보를 획득할 수 있다. 메모리(130)는 프로세서(120)의 요청에 따라, 상기 터치 입력에 관련된 정보를 제공할 수 있다.
다양한 실시 예들에 따라, 메모리(130)는 휘발성 메모리(volatile memory) 또는 불휘발성 메모리(non-volatile memory) 중 하나 또는 그 이상을 포함할 수 있다. 휘발성 메모리는 DRAM(dynamic random access memory), SRAM(static RAM), SDRAM(synchronous DRAM), PRAM(phase-change RAM), MRAM(magnetic RAM), RRAM(resistive RAM), FeRAM(ferroelectric RAM) 등을 포함할 수 있다. 불휘발성 메모리는 ROM(read only memory), PROM(programmable ROM), EPROM(electrically programmable ROM), EEPROM(electrically erasable programmable ROM), 플레시 메모리(flash memory) 등을 포함할 수 있다. 상기 메모리(130)는 하드 디스크 드라이브(HDD, hard disk drive), 솔리드 스테이트 디스크(SSD, solid state disk), eMMC(embedded multi media card), UFS(universal flash storage)와 같은 불휘발성 매체(medium)를 포함할 수 있다.
다양한 실시 예들에 따라, 메모리(130)는, 프로세서(120) 또는 다른 구성 요소(예: TSP 모듈(222))의 요청에 기반하여, 저장된 데이터를 제공하거나, 프로세서(120) 또는 다른 구성 요소(예: TSP 모듈(222))로부터 수신되는 데이터를 기록 및 저장할 수 있다. 예를 들어, 메모리(130)는, TSP 모듈(222)의 요청에 따라, 터치 입력에 관련된 위치, 면적 및 시간에 관한 정보를 TSP 모듈(222)로부터 수신할 수 있다. 또한, 프로세서(120)는 TSP 모듈(222)로부터, 터치 입력에 관련된 위치, 면적 및 시간에 관한 정보를 수신하고, 상기 획득된 정보를 저장하기 위해, 메모리(130)에게 상기 획득된 정보를 송신할 수도 있다.
다른 예를 들어, 메모리(130)는 프로세서(120)의 요청에 따라, 특정 시각으로부터 가장 가까운 시간 내에 수신된 터치 입력에 관한 위치 및 면적에 관한 정보를 프로세서(120)에게 송신할 수 있다.
다양한 실시 예들에 따라, 프로세서(120)는 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 데이터를 읽거나, 쓰고 메모리(130)에 저장된 어플리케이션 명령어 코드들을 실행할 수 있다. 예를 들어, 프로세서(120)는 터치 입력을 통해 입력된 지문에 대한 이미지를 이용하여, 사용자 인증을 수행할 수 있다. 이를 위해, 프로세서(120)는 메모리(130)로부터 인증된 사용자의 지문에 대한 기준 이미지를 수신할 수 있다. 프로세서(120)는 수신한 기준 이미지 및 입력된 지문에 대한 이미지간에 이미지 매칭을 수행함으로써 사용자 인증을 수행할 수 있다. 프로세서(120)는 이미지 매칭에 기반하여, 제1 색상에 대응되는 영역들간에 일치율, 제2 색상에 대응되는 영역들간에 일치율을 획득할 수 있다.
또 다른 예를 들어, 프로세서(120)는 표시 장치(160)를 통해 다양한 정보를 표시할 수 있다. 프로세서(120)는 터치 입력을 통해 입력된 지문이 제1 상태(예: 지문이 건조한 상태, 또는 지문에 유분이 부족한 상태)에 대응되는 것으로 결정한 경우, 지문의 상태를 제1 상태에서 제2 상태(예: 지문이 건조하지 않은 상태,또는 지문에 유분이 충분한 상태)로 변경하기 위한 가이드하는 정보를 표시하도록 표시 장치(160)를 제어할 수 있다. 상기 제2 상태는, 지문이 건조하지 않은 상태, 지문에 유분이 충분한 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지의 일치율이 일정 값보다 크거나 같은 상태, 지문의 마루 영역 내에서, 지문이 건조한 경우 생성되는 작은 골 영역이 땀, 또는 유분과 같은 물질(material)로 채워진 상태를 포함할 수 있다.
다양한 실시 예들에 따라, 프로세서(120)의 전부 또는 일부는 전자 장치(101) 내의 다른 구성 요소(예를 들면, 표시 장치(160), 센서 모듈(176), 또는 메모리(130))와 전기적으로(electrically) 또는 기능적으로(operably) 결합되거나 연결될 수 있다. 다양한 실시 예들에 따라, 프로세서(120)는 하나 또는 그 이상의 프로세서들로 구성될 수 있다. 예를 들면, 프로세서(120)는 응용 프로그램(application)과 같은 상위 계층(layer) 프로그램을 제어하는 AP(application processor) 또는 다른 전자 장치와의 통신을 위한 제어를 수행하는 CP(communication processor)를 포함할 수 있다.
도 3a 및 도 3b는 본 발명의 다양한 실시 예들에 따른 지문 상태의 예를 도시한다.
도 3a를 참조하면, 지문의 상태는 제2 상태(예: 지문이 건조하지 않은 상태, 또는 지문에 유분이 충분한 상태)에 대응될 수 있다. 구체적으로, 사용자의 지문은 터치스크린(303)(예: 도 1의 표시 장치(160))의 터치 표면을 기준으로, 상대적으로 낮은 위치에 대응되는 마루(ridge)(302) 영역 및 터치스크린(303)의 터치 표면을 기준으로, 상대적으로 높은 위치에 대응되는 골(valley)(301) 영역으로 구분될 수 있다. 사용자의 터치 입력 시, 지문 내에 포함되는 마루(302) 영역은 터치스크린(303)의 터치 표면으로부터 상대적으로 낮은 위치를 갖기 때문에, 터치스크린(303)과 물리적으로 접촉될 수 있다. 반면, 사용자의 터치 입력 시, 지문 내에 포함되는 골(301) 영역은 터치스크린(303)의 터치 표면으로부터 상대적으로 높은 위치를 갖기 때문에, 터치스크린(303)과 물리적으로 접촉되지 않을 수 있다. 따라서, 지문 내에 위치하는 골(301) 영역 및 터치스크린(303)의 표면 사이에 공기(air)층이 형성될 수 있다. 지문 내에 위치하는 마루(302) 영역은 터치스크린(303)과 물리적으로 접촉하기 때문에, 마루(302) 영역과 터치스크린(303)의 표면 사이에 공기 층이 형성되지 않을 수 있다.
다양한 실시 예에 따라, 프로세서(120)는, 사용자의 터치 입력 시, 지문 센서(224)를 통해 지문의 제2 상태에 대응되는 이미지(310)를 획득할 수 있다. 제2 상태에 대응되는 이미지(310)는 제1 색상(예: 검은 색)으로 지시되는 제1 영역(312) 및 제2 색상(예: 흰 색)으로 지시되는 제2 영역(314)을 포함할 수 있다. 지문 내에 위치하는 마루(302) 영역은 제2 상태에 대응되는 이미지(310) 중 제1 영역(312)에 대응될 수 있다. 지문 내에 위치하는 골(301) 영역은 제2 상태에 대응되는 이미지(310) 중 제2 영역(314)에 대응될 수 있다.
도 3b를 참조하면, 지문의 상태는 제1 상태(예: 지문이 건조한 상태, 지문에 유분이 부족한 상태)에 대응될 수 있다. 지문의 상태가 제1 상태에 대응되는 경우, 제2 상태에 대응되는 지문의 마루(302) 영역 내부에, 터치스크린(303)과 물리적으로 접촉하지 않는 영역이 생성될 수 있다. 즉, 지문이 제1 상태에 대응되는 경우, 지문의 마루(302) 영역 내에서, 터치스크린(303)의 터치 표면을 기준으로 상대적으로 높은 위치를 가지며, 터치스크린(303)과 물리적으로 접촉되지 않는 작은 골(304) 영역이 생성될 수 있다. 즉, 작은 골(304) 영역은, 지문의 상태가 제2 상태(예: 지문이 건조하지 않은 상태)에 대응되는 경우, 땀, 유분과 같은 물질을 포함할 수 있고, 터치스크린(303)의 터치 표면과 작은 골(304) 영역 사이에 공기층은 존재하지 않을 수 있다. 작은 골(304) 영역은, 지문의 상태가 제1 상태(예: 지문이 건조한 상태)에 대응되는 경우, 상기 땀, 유분과 같은 물질을 포함하지 않을 수 있다. 지문의 상태가 제1 상태에 대응되는 경우, 작은 골(304) 영역과 터치스크린(303)의 터치 표면 사이에 공기층이 형성될 수 있다.
다양한 실시 예들에 따라, 프로세서(120)는, 사용자의 터치 입력 시, 지문 센서(224)를 통해 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다. 제1 상태에 대응되는 이미지(320)는 제1 색상(예: 검은 색)으로 지시되는 제3 영역(322) 및 제2 색상(예: 흰 색)으로 지시되는 제4 영역(324)을 포함할 수 있다. 상기 제2 색상으로 지시되는 제4 영역(324)는 지문 내에 포함되는 골(301) 영역에 의해 생성되는 영역 및 제2 상태에 따라 생성된 작은 골(304) 영역 에 의해 생성되는 영역을 포함할 수 있다.
도 4는 다양한 실시 예들에 따른 지문 센서의 동작 원리를 도시한다. 도 4에 도시된 지문 센서(420)은 도 2에 도시된 지문 센서(224)에 대응될 수 있다.
도 4를 참조하면, 지문 센서(420)는 디스플레이의 발광층(410)의 하단에 위치할 수 있다. 지문 센서(420)는 디스플레이의 발광층(410)의 아래에 위치함으로써, 표시 장치(160)의 윈도우 글래스로부터 반사된 빛을 검출하고, 검출한 빛에 기반하여 지문에 대한 이미지를 획득할 수 있다. 상기 지문 센서(420)는 투명하지 않기 때문에, 반투명한 디스플레이의 발광층(410) 상단에 위치하는 경우, 디스플레이의 전체 성능을 감소시킬 수 있다.
다른 실시 예에 따라, 미 도시되었지만, 지문 센서(420)는 별도의 광원을 이용하여, 지문에 관한 이미지를 획득할 수 있다. 예를 들어, 지문 센서(420)는 별도의 광원으로부터 생성되어, 윈도우 글래스(window glass)에서 반사되어 진행하는 빛을 검출할 수 있다. 지문 센서(420)는 별도의 광원으로부터 생성되는 빛을 효율적으로 수신하기 위하여, 특정 위치(예: 디스플레이의 엣지(egde) 방향)에 위치될 수 있다. 상기 별도의 광원은, 표시 장치(160)가 off 상태 또는 저전력 모드로 동작함으로써 디스플레이의 발광층(410)으로부터 생성되는 광원이 없는 경우, 터치 입력에 대한 지문 이미지를 획득하기 위하여 동작할 수 있다.
도 4를 참조하면, 사용자의 터치 입력 시, 윈도우 글래스(window glass)와 다수의 마루(431)간에 물리적 접촉에 의한 접촉(434) 영역이 생성될 수 있다. 지문 내에서 골(432) 영역은 지문의 상태에 따라 생성 또는 소멸될 수 있다. 예를 들어, 지문의 상태가 제2 상태(예: 지문에 유분이 충분한 상태, 지문이 건조하지 않은 상태)에 대응되는 경우, 땀, 유분과 같은 물질(material)이 작은 골(432) 영역을 채울 수 있다. 이에 따라, 지문이 제2 상태에 대응되는 경우, 작은 골(432) 영역은 존재하지 않을 수 있다. 다른 예를 들어, 지문의 상태가 제1 상태(예: 지문에 유분이 부족한 상태, 지문이 건조한 상태)에 대응되는 경우, 땀, 유분과 같은 물질(material)이 존재하지 않으므로, 골(435) 영역과 상이한 작은 골(432) 영역이 생성될 수 있다. 골(435) 영역은 땀, 유분과 같은 물질(material)에 의해 채워질 수 없는 영역으로서, 지문 입력 시, 항상 제2 색상(예: 흰 색)을 가지는 영역에 대응될 수 있다.
다양한 실시 예들에 따라, 지문 센서(420)는 터치스크린 상에서 반사되어 지문 센서(420)로 진행하는 경로 A 및 경로 B의 빛을 수신함으로써, 지문에 대한 이미지를 획득할 수 있다. 경로 A의 빛은 윈도우 글래스와 지문 내에 위치하는 골(432 또는 435) 영역으로부터 반사되어 수신된 빛일 수 있다. 경로 B의 빛은 윈도우 글래스와 지문 내에 위치하는 마루(431) 영역으로부터 반사되어 수신된 빛일 수 있다. 경로 A의 빛은, 지문 내에 위치하는 골(432 또는 435) 영역과 윈도우 글래스 사이에 존재하는 공기층을 통해 반사될 수 있다. 따라서, 경로 A의 빛은 세기가 작게 감소할 수 있다. 반면, 경로 B의 빛은, 지문 내에 위치하는 마루(431) 영역과 윈도우 글래스의 접촉(434) 영역에 도달하는 경우, 경로 B의 빛은 사용자의 지문을 통해 흡수될 수 있다. 따라서, 접촉(434) 영역으로부터 반사된 경로 B의 빛은 광량이 크게 감소할 수 있다. 즉, 경로 A의 빛은 경로 B의 빛보다 밝은 빛일 수 있다.
다양한 실시 예들에 따라, 지문 센서(420)는 다수의 공기층(433) 및 접촉(434) 영역을 통해 반사된 경로 A의 빛 및 경로 B의 빛을 수신하고, 두 개의 빛 세기 차이를 비교함으로써 지문에 대한 이미지를 획득할 수 있다. 예를 들어, 지문 센서(420)는 반사된 경로 A의 빛을 수신하고, 제1 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 반사된 경로 B의 빛을 수신하고, 제2 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 이미지 처리를 통해, 반사된 경로 A의 빛에 상응하는 제1 값의 밝기의 값이 반사된 경로 B의 빛에 상응하는 제2 밝기의 값보다 큼을 인식할 수 있다. 반사된 경로 B는 윈도우 글래스와 접촉하고 있는 지문의 마루 영역(431)으로 일부 흡수되기 때문에, 제2 밝기의 값은 제1 밝기의 값보다 더 작을 수 있다. 따라서, 지문 센서(420)는 지문의 골 영역(432)에 대응되는 위치는 반사된 경로 A의 빛을 수신할 수 있고, 지문의 마루 영역(431)에 대응되는 위치상으로 반사된 경로 B의 빛을 수신할 수 있다. 지문 센서(224)는 수신한 빛을 반전시킴으로써 지문 도3a의 지문의 제2 상태에 대응되는 이미지(310) 또는 도3b에 도시된 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다.
도 5는 본 발명의 다양한 실시 예들에 따른 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다.
도 5를 참조하면, 동작 501에서, 프로세서(120)는 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득할 수 있다. 다양한 실시예에 따르면, 프로세서(120)는 사용자의 지문에 대한 제1 이미지를 획득하기 위해, 표시 장치(160)를 통해 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 프로세서(120)는, 표시 장치(160)가 off 상태에서 on 상태로 변경됨을 검출하고, 상기 검출에 따라 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 지문 입력을 가이드하는 인터페이스는, 지문의 형상 또는 이와 유사한 형상을 포함하는 이미지일 수 있다. 지문 입력을 가이드하는 인터페이스는, 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 프로세서(120)는 지문 센서(224)를 통해, 상기 인터페이스에 따라 입력된 터치에 관련된 지문에 대한 제1 이미지를 획득할 수 있다.
일 실시 예에 따라, 프로세서(120)는, 표시 장치(160)가 off 상태로 동작하는 동안, 지문 센서(224)를 통해, 사용자의 지문에 대한 제1 이미지를 획득할 수 있다. 지문 센서(224)는 표시 장치(160)가 off 상태로 동작하더라도, 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 상기 AOD 모드로 동작하는 동안, 지문 센서(224)가 위치하는 표시 장치(160)의 영역 상에 GUI(graphic user interface)를 표시할 수 있다. 예를 들어, 상기 GUI는 지문의 형상을 포함하는 그래픽 오브젝트를 포함할 수 있다. 표시 장치(160)는 상기 AOD 모드에 기반하여, 저전력 모드 또는 off 상태로 동작할 수 있다. 지문 센서(224)는, 상기 표시 장치(160)가 저전력 모드 또는 off 상태로 동작하는 동안, 상기 GUI가 표시된 영역을 통해 사용자의 지문에 대한 이미지를 획득할 수 있다.
다른 실시 예에 따라, 지문 센서(224)는, 수신한 터치 입력에 기반하여 획득한 제1 이미지와 인증된 사용자의 지문에 대한 이미지를 비교하여, 지문 인증을 수행할 수 있다. 프로세서(120)는 지문 센서(224)에 의한 제1 이미지 획득에 대응하여, 표시 장치(160)를 off 상태에서, on 상태로 변경할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지와 인증된 사용자의 지문에 대한 이미지가 일치하는 경우, 지문 인증이 성공했음을 판단하고, 전자 장치(101)의 잠금 상태의 해제 및 표시 장치(160)의 off 상태를 on 상태로의 전환을 수행할 수 있다. 다른 예를 들어, 프로세서(120)는 제1 이미지와 인증된 사용자의 지문에 대한 이미지의 불일치를 판단한 경우, 표시 장치(160)의 상태를 on 상태로 전환하고, 상기 제2 터치 입력을 가이드하는 정보를 표시 장치(160)를 통해 표시할 수 있다.
또 다른 실시 예에 따라, 프로세서(120)는, 지문 센서(224)가 위치하는 영역 상에 GUI(graphic user interface)를 표시할 수 있다. 예를 들어, 상기 GUI는 지문의 형상을 포함하는 그래픽 오브젝트를 포함할 수 있다. 표시 장치(160)는 상기 AOD 모드에 기반하여, 저전력 모드 또는 off 상태로 동작할 수 있다. 지문 센서(224)는, 상기 표시 장치(160)가 저전력 모드 또는 off 상태로 동작하는 동안, 상기 GUI가 표시된 영역을 통해 사용자의 지문에 대한 이미지를 획득할 수 있다.
일 실시 예에 따라, 도 6a를 참조하면, 프로세서(120)는 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 프로세서(120)는 지문 센서(224)가 위치하는 영역 상에 상기 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 지문 센서(224)가 표시 장치(160)의 하단 중앙부에 위치하는 경우, 프로세서(120)는 표시 장치(160)의 하단 중앙부에 지문 형상의 이미지(620)을 표시할 수 있다.
다른 실시 예에 따라, 도 6b를 참조하면, 전자 장치(101)는 다수의 지문 센서들(620 내지 660)을 포함할 수 있다. 예를 들어, 상기 다수의 지문 센서(620 내지 660)는 다섯 개의 지문 센서를 포함할 수 있다. 지문 센서(620)는 종래의 물리 키 또는 버튼에 대응하는 위치(예: 표시 장치(160) 하단 중앙부)에 배치될 수 있다. 나머지 지문 센서들(630 내지 660)은 지문 센서(620)가 배치된 영역을 제외한 나머지 영역을 통해 배치될 수 있다. 다른 예를 들어, 상기 다수의 지문 센서들(620 내지 660)은 표시 장치(160)의 전체 영역을 통해 배치될 수 있다. 이 경우, 다수의 지문 센서들은, 각각의 지문 센서간에 거리가 동일하도록 배치될 수 있다. 다수의 지문 센서들(620 내지 660)이 표시 장치(160) 영역에 위치함으로써, 프로세서(120)는 지문 입력을 위한 인터페이스의 위치를 적응적으로 변경할 수 있다.
동작 503에서, 프로세서(120)는 획득된 제1 이미지 및 기준 이미지에 기반하여, 지문의 상태가 제1 상태에 대응함을 식별할 수 있다. 상기 제1 상태는, 지문이 건조한 상태, 지문에 유분이 부족하거나 없는 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 지문이 인증된 사용자에 대한 지문일 것으로 추정되나, 상기 입력된 지문에 대한 이미지가 상기 기준 이미지와 일치하지 않는 상태, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지 사이에 일치율이 지정된 값보다 낮은 상태, 또는 상기 입력된 지문에 대한 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율이 상기 기준 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율보다 정해진 값만큼 낮은 상태를 나타낼 수 있다. 프로세서(120)는 획득된 제1 이미지를 이용하여, 지문 인증을 수행하기 위해 기준 이미지와 비교를 수행할 수 있다. 상기 기준 이미지는, 전자 장치의 인증된 사용자에 의해 미리 저장되고, 인증된 사용자의 지문에 대한 이미지, 지문 등록 설정을 위해 등록된 이미지, 인가된 사용자의 지문에 대한 이미지를 포함할 수 있다. 프로세서(120)는 획득된 제1 이미지 및 기준 이미지에 기반하여, 지문의 상태가 제1 상태에 대응하는지 결정할 수 있다. 일 실시 예에 따라, 프로세서(120)는 제1 이미지의 제1 영역 및 기준 이미지의 제3 영역이 상이한지 판단함으로써, 지문의 상태가 상기 제1 상태에 대응됨을 결정할 수 있다.
동작 505에서, 프로세서(120)는 지문의 상태를 제1 상태에서 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 제2 상태는, 지문이 건조하지 않은 상태, 지문에 유분이 충분한 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지의 일치율이 일정 값보다 크거나 같은 상태, 지문의 마루 영역 내에서, 또는 지문이 건조한 경우 생성되는 작은 골 영역이 땀, 유분과 같은 물질(material)로 채워진 상태를 포함할 수 있다. 프로세서(120)는, 지문의 상태가 제1 상태에 대응됨을 검출함에 기반하여, 상기 지문의 상태를 제2 상태로 변경하기 위해, 터치 입력을 가이드하는 정보를 표시할 수 있다. 터치 입력을 가이드하는 정보는 제1 지점 및 제2 지점을 포함하는 도형과 같은 시각적 개체, 격자로 배열된 다수의 객체들과 같은 시각적 개체, 및 특정 방향을 지시하는 화살표와 같은 시각적 개체 포함할 수 있다. 상기 제2 터치 입력은 드래그 입력을 포함할 수 있다. 사용자는, 표시 장치(160)를 통해 표시된 정보를 따라 터치를 입력할 수 있다. 사용자의 드래그 터치에 따라, 표시 장치(160)와 지문 사이의 마찰에 의해 발생하는 땀, 표시 장치(160) 상에 존재하는 유분과 같은 물질(material)이 마루 영역 내의 작은 골 영역들을 채울 수 있다. 마루 영역 내의 작은 골 영역들이 채워짐에 따라, 지문의 상태는 제1 상태에서 제2 상태로 변경될 수 있다.
도 7은 본 발명의 다양한 실시 예들에 따른 제1 이미지를 획득하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 7의 동작 701 내지 동작 705은 도 5의 동작 501과 관련될 수 있다.
도 7을 참고하면, 동작 701에서, 프로세서(120)는 그립 센서(226) 또는 압력 센서(미도시)로부터 데이터를 수신할 수 있다. 그립 센서(226)는 좌측 방향의 자기장 변화의 크기 및 우측 방향의 자기장 변화의 크기를 비교함으로써, 상기 전자 장치(101)를 파지한 손의 방향과 관련된 정보를 획득할 수 있다.
예를 들어, 프로세서(120)는 그립 센서(226)로부터 정보를 수신함으로써, 사용자가 전자 장치(101)를 파지하였음을 검출할 수 있다. 사용자가 전자 장치(101)를 파지한 경우, 프로세서(120)는, 표시 장치(160)의 off 상태에서 on 상태로의 변경 및 제1 터치 입력을 가이드하는 정보를 표시하도록 지시하는 제어 신호를 송신할 수 있다.
다른 예를 들어, 프로세서(120)는 압력 센서(미도시)로부터 데이터를 수신할 수 있다. 압력 센서(미도시)는 표시 장치(160)의 하단 중앙부에 배치될 수 있다. 압력 센서(미도시)는 디스플레이를 활성화하기 위한 종래의 물리 키 또는 버튼에 대응될 수 있다. 압력 센서(미도시)는 미리 설정된 임계 값 이상의 압력을 갖는 터치 입력을 검출하는 경우, 프로세서(120)에게 데이터를 송신할 수 있다. 프로세서(120)는 압력 센서(미도시)로부터 데이터 수신에 기반하여, 표시 장치(160)에게 표시 장치(160)를 on 상태로 변경할 것을 지시하는 제어 신호를 송신할 수 있다.
상술한 실시 예들에서, 프로세서(120)는 그립 센서(226) 또는 압력 센서(미도시)로부터 데이터를 수신하는 것으로 설명되었지만, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(120)는, 사용자가 전자 장치 사용을 위해 주머니(또는 가방)에서 상기 전자 장치를 꺼내는 경우, 급격한 조도 값의 변화에 기반하여, 조도 센서(미도시)로부터 데이터를 수신할 수 있다. 프로세서(120)는 조도 센서(미도시)로부터 데이터를 수신하는 것에 기반하여, 표시 장치(160)를 활성화할 것을 지시하는 제어 신호를 송신할 수 있다.
동작 703에서, 프로세서(120)는 제1 터치 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는, 표시 장치(160)에게 사용자의 지문 인증을 위한 제1 터치 입력을 가이드하는 정보를 표시할 것을 지시(indicating)하는 제어 신호를 송신할 수 있다. 제1 터치 입력을 가이드하는 정보는 지문의 형상 및 이와 유사한 형상을 포함하는 이미지일 수 있다. 제1 터치 입력을 가이드하는 정보는 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 표시 장치(160)는, 프로세서(120)로부터 제어 신호에 기반하여, 제1 터치 입력을 가이드하는 정보를 표시할 수 있다. 이에 따라, 지문 인증을 위한 제1 터치 입력이 표시 장치(160) 내에 지문 센서(224)가 위치하는 영역에 수신될 수 있다.
동작 705에서, 프로세서(120)는 지문 센서(224)를 통해, 제1 이미지를 획득할 수 있다. 지문 센서(224)는 지문 내에 위치하는 골 영역 및 마루 영역에 의해 반사되는 빛의 세기 차이에 기반하여, 제1 터치 입력에 따른 지문의 이미지를 획득할 수 있다. 상기 제1 터치 입력에 따른 지문의 이미지는 제1 이미지로 언급될 수 있다. 지문 센서(224)는 수신된 빛의 세기에 대한 아날로그 데이터를 디지털 데이터로 변환하고, 이미지 처리를 수행함으로써, 상기 제1 이미지를 획득할 수 있다.
도 8은 본 발명의 다양한 실시 예들에 따라 지문의 상태가 제1 상태에 대응하는지 결정하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 8에 도시된 동작 801 내지 동작 805는 도 5에 도시된 동작 503과 관련될 수 있다.
도 8을 참조하면, 동작 801에서, 프로세서(120)는 제1 이미지의 제2 영역과, 기준 이미지의 제4 영역의 일치율이 제1 임계 값보다 크거나 같은지 여부를 결정할 수 있다. 즉, 프로세서(120)는 기준 이미지와 제1 이미지를 비교함으로써, 골(435) 영역에 대응되는 영역의 겹침 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지의 제2 영역과 기준 이미지의 제4 영역이 약 95% 이상 동일하지 않은 경우, 인증된 사용자가 아닌 제3자에 의한 터치 입력으로 결정할 수 있다. 제1 이미지의 제2 영역은 땀, 유분과 같은 물질(material)의 유무에 관계없이 존재하는 골(435) 영역에 따라, 제2 색상을 가지는 영역이기 때문이다. 다른 예를 들어, 프로세서(120)는 제1 이미지의 제2 영역 및 기준 이미지의 제4 영역이 약 95% 이상 동일한 경우, 제1 이미지가 인증된 사용자의 지문에 대한 이미지임을 결정할 수 있다. 따라서, 프로세서(120)는 지문의 상태에 의해 지문 인증이 실패하였는지 결정하기 위하여, 동작 803을 수행할 수 있다.
상술한 실시 예들에서, 제1 임계 값이 약 95%와 동일한 값으로 설명되었으나, 본 발명은 이에 한정되는 것은 아니다. 프로세서(120)는 사용자의 보안 설정에 따라, 제1 임계 값을 다양한 값으로 설정할 수 있다. 예를 들어, 사용자가 높은 보안 등급의 지문 인증을 요구하는 경우, 제1 임계 값은 약 99%으로 설정될 수 있다. 구체적인 제1 임계 값은 이에 한정되지 않으며, 다양한 값을 가질 수 있다.
동작 803에서, 프로세서(120)는 제1 이미지의 제1 영역과, 기준 이미지의 제3 영역의 일치율이 제2 임계 값보다 크거나 같은지 결정할 수 있다. 즉, 프로세서(120)는 기준 이미지와 제1 이미지를 비교함으로써, 마루(302) 영역의 겹침 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지의 제1 영역과 기준 이미지의 제3 영역이 약 70% 이상으로 동일하지 않은 경우, 지문의 상태가 제1 상태 또는 제2 상태에 대응되는지 결정하지 않을 수 있다. 일 실시 예에 따라, 프로세서(120)는 제1 이미지에 관한 구체적인 정보를 획득하기 위하여, 제1 터치 입력을 가이드하는 정보를 다시 표시할 수 있다. 다른 예를 들어, 프로세서(120)는 제1 이미지의 제1 영역과 기준 이미지의 제3 영역이 약 70% 이상 동일함을 검출할 수 있다.
동작 805에서, 프로세서(120)는 지문의 상태가 제1 상태에 대응함을 확인할 수 있다. 프로세서(120)는, 제1 이미지 및 기준 이미지에 기반하여, 전자 장치(101)의 인증된 사용자의 지문은 해당하지만, 상기 지문의 상태가 제1 상태에 대응되는 것을 결정할 수 있다. 이후, 프로세서(120)는 지문의 제1 상태를 제2 상태로 변경하기 위해, 제2 터치 입력을 가이드하는 정보를, 표시 장치(160)를 통해 표시할 수 있다.
도 9는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 9의 동작 901 내지 동작 909는 도 5의 동작 505와 관련될 수 있다.
도 9를 참조하면, 동작 901에서, 프로세서(120)는 제1 지점 및 제2 지점을 포함하는 그래픽 오브젝트(예: 도형)를 상기 제2 터치 입력을 가이드하는 정보로 표시할 수 있다. 상기 제1 지점 및 상기 제2 지점은, 표시 장치(160) 내에 위치하는 서로 상이한 지점들을 포함할 수 있다. 상기 제1 지점 및 상기 제2 지점은 사용자의 터치 입력에 의해 구분될 수 있는 최소한의 거리만큼 이격된 서로 상이한 지점들을 포함할 수 있다. 상기 제1 지점 및 제2 지점을 포함하는 그래픽 오브젝트는 사용자의 드래그 입력을 가이드하기 위한 형상일 수 있다. 예를 들어, 상기 그래픽 오브젝트는 다양한 형상(예: 별 모양, 원 모양, 사각형 모양, 또는 삼각형 모양)을 가질 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 드래그 입력을 가이드하기 위한 텍스트(예: "지문인증을 위해 화면상의 별 모양을 그려주세요")를 추가적으로 표시할 수 있다.
일 실시 예에 따라, 도 10을 참조하면, 프로세서(120)는, 지문의 상태가 제1 상태에 대응됨을 검출함에 기반하여, 별 형상의 도형(1001)을 표시할 수 있다. 프로세서(120)는 사용자의 인지를 향상시키기 위해, 드래그 입력을 가이드하기 위한 텍스트(1003)를 더 표시할 수 있다.
동작 903에서, 프로세서(120)는 제1 지점 및 제2 지점을 포함하는 드래그 입력을 검출할 수 있다. 프로세서(120)는 TSP 모듈(222)을 통해, 드래그 입력을 검출할 수 있다. 상기 드래그 입력은 제1 지점 및 제2 지점을 포함할 수 있다.
일 실시 예에 따라, 도 10을 참조하면, 프로세서(120)는 표시 장치(160)를 통해, 검출된 드래그 입력에 따른 애니메이션 효과를 추가할 수 있다. 예를 들어, 프로세서(120)는 별 형상의 도형에 겹치도록 표시되는 선(1005)를 추가로 표시할 수 있다.
동작 905에서, 프로세서(120)는 도형이 표시된 전체 영역에서 드래그 입력이 검출되는지 판단할 수 있다. 프로세서(120)는, TSP 모듈(222)로부터 드래그 입력이 검출된 모든 영역에 관한 정보를 수신할 수 있다. 프로세서(120)는 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역에 포함되는지 판단할 수 있다.
예를 들어, 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역을 모두 포함하는 경우, 프로세서(120)는 상기 도형이 표시된 영역을 따라 드래그 입력이 검출되었음을 결정할 수 있다. 프로세서(120)는, 상기 도형이 표시된 영역에 따른 드래그 입력을 검출하고, 제2 상태로 변경된 지문에 대한 제2 이미지를 획득하기 위해, 동작 907을 수행할 수 있다.
다른 예를 들어, 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역을 모두 포함하지 않는 경우, 프로세서(120)는 상기 도형이 표시된 영역을 따라 드래그 입력이 검출되지 않았음을 결정할 수 있다. 프로세서(120)는, 상기 도형이 표시된 전체 영역에서 드래그 입력이 검출될 때까지, 표시 장치(160)를 통해 상기 도형의 표시를 유지할 수 있다.
동작 907에서, 프로세서(120)는 제3 지점을 통해, 지문에 대한 제2 이미지를 획득할 수 있다. 상기 제3 지점은 표시 장치(160) 내에서 지문 센서가 위치하는 영역에 대응될 수 있다. 상기 제3 지점은 상기 제1 지점 및 상기 제2 지점과 상이한 영역에 대응할 수 있다. 프로세서(120)는, 표시 장치(160)를 통해, 상기 제3 지점이 위치하는 영역 상으로 지문 입력을 가이드하는 정보를 표시할 수 있다. 지문 입력을 가이드하는 정보는 지문의 형상 또는 이와 유사항 형상을 포함하는 이미지일 수 있다. 지문 입력을 가이드하는 정보는, 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 프로세서(120)는 상기 제3 지점에 대응되는 지문 센서(224)를 통해, 지문에 대한 제2 이미지를 획득할 수 있다. 제2 이미지는 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 제2 이미지는, 지문 내의 마루(302) 영역에 위치하는 작은 골(304) 영역이 땀, 유분과 같은 물질(material)에 의해 채워진 상태의 지문에 대한 이미지일 수 있다.
미 도시되었지만, 프로세서(120)는, 제1 지점 또는 제2 지점에 대응되는 영역 상에 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 프로세서(120)는, 표시 장치(160)를 통해, 상기 제1 지점에 대응되는 영역 상에, 지문 입력을 가이드하는 정보를 표시할 수 있다. 이에 따라, 프로세서(120)는 상기 표시된 도형에 입력된 사용자의 드래그 입력만으로, 제2 이미지를 획득할 수 있다.
동작 909에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 프로세서(120)는 이미지 매칭(image matching) 기법에 기반하여, 상기 제2 이미지 및 기준 이미지를 비교할 수 있다. 예를 들어, 프로세서(120)는 지문 인증 결과에 기반하여, 지문이 일치한다고 결정한 경우, 상기 전자 장치(101)의 잠금 상태를 해제할 수 있다. 다른 예를 들어, 프로세서(120)는 지문 인증 결과에 기반하여, 지문의 불일치를 검출한 경우, 상기 전자 장치(101)의 잠금 상태를 유지하고, 지문 입력을 가이드하는 인터페이스를 다시 표시할 수 있다.
도 11은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 11의 동작 1101 내지 동작 1109는 도 5의 동작 505와 관련될 수 있다.
도 11을 참조하면, 동작 1101에서, 프로세서(120)는 표시 장치(160)를 통해, 격자로 배열되는 다수의 객체들을 표시할 수 있다. 상기 격자로 배열되는 다수의 객체들은, 도 12에 도시된 바와 같이, 원(circle)의 형상을 가질 수 있다. 또한, 미 도시되었지만, 상기 격자로 배열되는 다수의 객체들 각각은, 별(star), 사각형(rectangular), 삼각형(triangle), 다양한 형상 또는 이미지를 포함할 수 있다.
일 실시 예에 따라, 상기 격자로 배열되는 다수의 객체들 각각은, 동일한 형상 또는 서로 상이한 형상을 가질 수 있다. 예를 들어, 프로세서(120)는 도 12에 도시된 바와 같이, 격자로 배열된 다수의 원형 객체들(1201 내지 1209)을 표시할 수 있다. 다른 실시 예에 따라, 미 도시되었지만, 프로세서(120)는 상기 격자로 배열된 다수의 객체들 각각의 객체를 상이한 형상으로 표시할 수 있다. 상기 격자로 배열된 다수의 객체들 중 터치가 입력된 적어도 일부의 객체들의 순서는 잠금 해제를 위한 패턴 정보로서 이용될 수 있다. 프로세서(120)는 메모리(130)를 통해, 인증된 사용자에 의해 미리 설정된 패턴 정보를 저장할 수 있다.
동작 1103에서, 프로세서(120)는, TSP 모듈(222)을 통해, 적어도 일부 객체들로 입력되는 제2 터치 입력을 검출할 수 있다. 프로세서(120)는 제2 터치 입력에 따라 결정되는 적어도 일부의 객체들의 순서를 입력 패턴으로 저장할 수 있다.
일 실시 예에 따라, 도 12를 참조하면, 프로세서(120)는 제2 터치 입력의 궤적(1210)을 검출할 수 있다. 따라서, 프로세서(120)는 객체(1201), 객체(1202), 객체(1203), 객체(1206), 객체(1205), 객체(1204), 객체(1207), 객체(1208)의 순서로 진행되는 제2 터치 입력을 검출할 수 있다. 프로세서(120)는 제2 터치 입력의 궤적(1210)에 대응되는 객체들의 순서를 제2 터치 입력의 패턴으로 저장할 수 있다. 다른 실시 예에 따라, 프로세서(120)는 표시 장치(160)를 통해 제2 터치 입력의 궤적(1210)에 대응하는 터치 영역 상으로, 선을 표시함으로써 애니메이션 효과를 표시할 수 있다. 또한, 프로세서(120)는, 상기 격자로 배열된 다수의 객체들 중 제2 터치 입력의 궤적(1210)상에 위치하는 객체들에게 애니메이션 효과를 제공할 수 있다. 프로세서(120)는 제2 터치 입력이 검출되는 객체들의 색(color)를 변경하거나, 크기를 확대하여 표시할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력의 궤적(1210)의 진행에 따라, 객체(1202), 객체(1203), 객체(1206), 객체(1205), 객체(1204), 객체(1207), 객체(1208)의 순서로, 터치가 입력되는 객체의 크기를 확대하거나, 색을 변경할 수 있다. 이에 따라, 사용자는 제2 터치 입력의 궤적(1210) 및 상기 격자로 배열된 다수의 객체들에 부여되는 애니메이션 효과에 기반하여, 터치 입력이 수신되는 영역을 실시간으로 식별할 수 있다.
동작 1105에서, 프로세서(120)는 기 저장된 패턴과 제2 터치 입력의 패턴이 일치하는지 여부를 결정할 수 있다. 예를 들어, 인증된 사용자에 의해 저장되고, 전자 장치(101)의 잠금 해제를 위한 패턴과 제2 터치 입력의 패턴이 일치하는 경우, 프로세서(120)는 지문 입력을 가이드하는 정보를 표시할 수 있다.
다른 예를 들어, 전자 장치(101)의 잠금 해제를 위한 패턴과 제2 터치 입력의 패턴이 불일치하는 경우, 프로세서(120)는 표시 장치(160)를 통해, 상기 격자로 배열되는 다수의 객체들을 계속 표시할 수 있다. 상기 패턴이 불일치하는 경우, 제2 터치 입력의 사용자는, 인증된 사용자와 상이할 수 있기 때문이다.
미 도시되었지만, 프로세서(120)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 지문 입력을 가이드하는 인터페이스를 표시할 수도 있다. 이에 따라, 프로세서(120)는 전자 장치의 잠금 해제를 위한 패턴 정보의 일치 및 기준 이미지와 제2 이미지의 일치에 기반하여, 잠금 상태를 해제할 수 있으므로, 보안이 더 강화될 수 있다.
동작 1107에서, 프로세서(120)는 지문 센서(224)를 통해 제2 이미지를 획득할 수 있다. 상기 제2 이미지는, 드래그 입력 이후에 지문 센서(224)를 통해 입력되는 지문에 대한 이미지를 포함할 수 있다. 지문 센서(224)는 드래그 입력에 따라 제2 상태로 변경된 지문에 대한 제2 이미지를 획득할 수 있다.
일 실시 예에 따라, 지문 센서(224)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 지문 입력에 따른 제2 이미지를 획득할 수 있다. 예를 들어, 기 저장된 패턴과 제2 터치 입력의 패턴이 일치하지 않는 경우, 지문 센서(224)는 제2 이미지를 생성하지 않을 수 있다. 다른 예를 들어, 지문 센서(224)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 상기 일치 이후에 반사되어 수신되는 경로 A를 가지는 빛과 경로 B를 가지는 빛의 세기 차이에 기반한 제2 이미지를 생성할 수 있다. 예를 들어, 지문 센서(420)는 반사된 경로 A의 빛을 수신하고, 제1 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 반사된 경로 B의 빛을 수신하고, 제2 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 이미지 처리를 통해, 반사된 경로 A의 빛에 상응하는 제1 값의 밝기의 값이 반사된 경로 B의 빛에 상응하는 제2 밝기의 값보다 큼을 인식할 수 있다. 반사된 경로 B는 윈도우 글래스와 접촉하고 있는 지문의 마루 영역(431)으로 일부 흡수되기 때문에, 제2 밝기의 값은 제1 밝기의 값보다 더 작을 수 있다. 따라서, 지문 센서(420)는 지문의 골 영역(432)에 대응되는 위치는 반사된 경로 A의 빛을 수신할 수 있고, 지문의 마루 영역(431)에 대응되는 위치상으로 반사된 경로 B의 빛을 수신할 수 있다. 지문 센서(224)는 수신한 빛을 반전시킴으로써 지문 도3a의 지문의 제2 상태에 대응되는 이미지(310) 또는 도3b에 도시된 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다.
동작 1109에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여 지문 인증을 수행할 수 있다. 동작 1109는 도 9의 동작 909에 대응될 수 있다.
도 13은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 13의 동작 1301 내지 동작 1307는 도 5의 동작 505와 관련될 수 있다.
도 13을 참조하면, 동작 1301에서, 프로세서(120)는 제1 터치 입력을 검출하기 전에, 터치 입력이 수신된 영역에 관한 정보를 확인할 수 있다. 프로세서(120)는, 메모리(130)에게 제1 터치 입력이 입력되기 이전 시점에 수신된 터치 입력과 관련된 영역에 관한 정보를 요청할 수 있다. 일 예로, 프로세서(120)는 제1 이미지에 기반하여, 지문의 상태가 제1 상태에 대응함을 판단할 수 있다. 프로세서(120)는 상기 판단에 기반하여, 가장 가까운 시간에 터치 입력이 수신된 영역에 관한 정보를 메모리(130)로부터 리드(read)할 수 있다. 다른 예로, 프로세서(120)는 일정 임계 값 이상의 면적을 가지고, 일정 시간 구간 이내에 수신된 터치 입력의 영역에 관련된 정보를 수신할 수 있다. 또 다른 예로, 프로세서(120)는 일정 시간 구간 이내에, 일정 횟수 이상의 터치 입력이 수신된 영역에 관한 정보를 수신할 수 있다. 즉, 프로세서(120)는 특정 시각(예: 지문의 상태가 제1 상태에 대응되는 것으로 결정한 시각)으로부터 일정 시간 구간 이내의 터치 입력에 관련된 영역의 정보를 확인할 수 있다.
일 실시 예에 따라, 도 14a를 참조하면, 프로세서(120)는 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 사용자는 음성 통화를 위해 사용자의 귀(ear)에 상기 전자 장치(101)를 접촉할 수 있다. 이에 따라, 사용자 얼굴의 측면(side)과 상기 전자 장치(101)의 표시 장치(160)간에 터치 입력이 발생할 수 있다. 상기 터치 입력은 일정 크기의 면적을 가질 수 있고, 표시 장치(160)의 전면 또는 상단의 적어도 일부 영역을 통해 수신될 수 있다. 상기 적어도 일부 영역은 원 영역(1410)으로 표현될 수 있다. TSP 모듈(222)은 수신된 터치 입력의 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에게 송신할 수 있다. 예를 들어, TSP 모듈(222)은 표시 장치(160)상에서 수신된 터치 입력의 위치 및 면적(예: 원 영역(1410))에 관한 정보를 상기 터치 입력이 수신된 시간(예: 오전 11시 10분)에 매핑할 수 있다.
일 실시 예에 따라, 도 14b를 참조하면, 프로세서(120)는 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 표시 장치(160)를 통해 사용자의 문자 입력을 위한 가상 키보드를 표시 장치(160) 하단부에 표시할 수 있다. 프로세서(120)는 가상 키보드 상으로 입력되는 다수의 터치 입력들을 수신할 수 있다.
동작 1303에서, 프로세서(120)는 확인된 영역 상에, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 확인된 영역은 가까운 시간 이내에 터치 입력이 검출된 영역에 대응될 수 있다. 따라서, 땀, 유분과 같은 물질(material)이 상기 확인된 영역상의 표시 장치(160)에 존재할 수 있다. 따라서, 프로세서(120)는 지문의 상태를 제1 상태에서 제2 상태로 변경하기 위해, 상기 확인된 영역상에 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 제2 터치 입력을 가이드하는 정보는, 제1 지점 및 제2 지점을 포함하는 도형, 격자로 배열된 다수의 객체들, 특정 방향을 지시하는 화살표를 포함할 수 있다.
일 실시 예에 따라, 도 14a를 참고하면, 프로세서(120)는 표시 장치(160)를 통해, 터치 입력의 위치, 면적 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 일 실시 예에 따라, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 이전에 수신된 터치 입력들 터치 면적이 넓은 터치 영역에 관한 정보에 기반하여, 제2 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 예를 들어, 표시 장치(160)상에서 원 영역(1410)을 통해, 별 형상의 도형을 표시할 수 있다.
일 실시 예에 따라, 도 14b를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해, 터치 입력의 위치, 면적 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 시각으로부터 일정 시간 구간 이내에 멀티 터치가 발생한 영역에 관한 정보에 기반하여, 제2 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 표시 장치(160)를 통해, 사각형 영역(1420)을 통해, 별 형상의 도형을 표시할 수 있다.
일 실시 예에 따라, 도 14c를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해, 터치 입력의 위치, 면적, 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 시각으로부터 일정 구간 이내에 수신된 터치 입력들 중, 일정 크기 이상의 면적을 통해 수신된 터치 입력을 식별할 수 있다. 프로세서(120)는 메모리(130)로부터 이전에 수신된 터치 입력에 관한 정보를 수신함으로써, 일정 크기 이상의 면적에 대응하는 터치 입력을 식별할 수 있다. 프로세서(120)는 상기 식별된 터치 입력에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)로부터, 식별된 터치 입력의 영역에 관련된 정보를 수신할 수 있다. 이에 기반하여, 프로세서(120)는, 제2 터치 입력을 가이드하기 위해, 물방울 형상을 상기 영역상에 표시할 수 있다. 프로세서(120)는 제2 터치 입력을 가이드하기 위한 텍스트(예: "지문 인증을 위해 물방울을 지워주세요")를 표시할 수 있다. 일 실시 예에 따라, 프로세서(120)는, 표시 장치(160)를 통해, 제2 터치 입력에 대응하는 효과를 표시할 수 있다. 예를 들어, 프로세서(120)는 상기 물방울 형상을 포함하는 영역으로 수신된 터치 입력에 대응하여, 터치 입력이 수신된 영역의 물방울 형상을 일부 표시하지 않을 수 있다. 따라서, 사용자는, 표시 장치(160)를 통해, 제2 터치 입력에 따라 대응되는 영역상에 위치한 물방울 형상의 적어도 일부가 지워지는 효과를 경험할 수 있다.
미 도시되었지만, 프로세서(120)는 상기 확인된 영역상에, 격자로 배열된 다수의 객체들 또는 특정 방향을 지시하는 화살표를 표시할 수도 있다.
동작 1305에서, 프로세서(120)는 지문 센서(224)를 통해, 제2 이미지를 획득할 수 있다. 지문 센서(224)는 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 일 실시예에 따라, 프로세서(120)는 사용자의 제2 터치 입력에 의해 제2 상태로 변경된 지문 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문 센서(224)의 위치에 상응하는 표시 장치(160)의 영역상에 지문에 관련된 이미지를 표시할 수 있다. 지문 센서(224)는 상기 지문 인식을 위한 터치 입력에 기반하여, 상기 제2 터치 입력에 의해 제2 상태로 변경된 지문에 대한 이미지를 획득할 수 있다. 동작1305는 도 11의 동작 1107에 대응될 수 있다.
동작 1307에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반한 지문 인증을 수행할 수 있다. 동작 1307는 도 11의 동작 1109에 대응될 수 있다.
도 15는 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 15의 동작 1501 내지 동작 1507는 도 5의 동작 505와 관련될 수 있다.
도 15를 참고하면, 동작 1501에서, 프로세서(120)는 일정 압력 값 이상의 터치 입력을 검출할 수 있다. 프로세서(120)는 압력 센서(미도시)상의 일정 영역을 통해 터치 입력을 수신할 수 있다. 압력 센서(미도시)는 표시 장치(160) 하단의 중앙부에 위치할 수 있다. 압력 센서(미도시)는 수신된 터치 입력이 일정 압력 값 이상인지 판단할 수 있다. 구체적으로, 압력 센서(미도시)는 유전율 변화의 크기에 따라, 터치 입력의 구체적인 압력 값을 획득할 수 있다.
동작 1503에서, 프로세서(120)는 하단의 면으로부터 표시 장치(160)의 중앙을 향하는 화살표를 표시할 수 있다. 프로세서(120)는 일정 압력 값 이상의 터치 입력을 검출한 경우, 표시 장치(160)에게, 표시 장치(160)를 on 상태로 변경할 것을 제어하는 신호를 송신할 수 있다. 프로세서(120)는 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 정보는 특정 방향을 지시하는 화살표에 관련된 이미지일 수 있다. 예를 들어, 상기 화살표는 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 하단(bottom)의 면으로부터 상기 표시 장치(160)의 중앙을 향하도록 지시할 수 있다. 프로세서(120)는, 표시 장치(160)를 통해 제2 터치 입력을 가이드하기 위한 텍스트(예: "Drag" 또는 "화살표 방향으로 드래그 하세요")를 추가적으로 표시할 수 있다.
동작 1505에서, 프로세서(120)는 제2 터치 입력을 검출할 수 있다. 상기 사용자는, 표시 장치(160)를 통해 표시되는 화살표 및/또는 텍스트에 기반하여, 제2 터치 입력을 제공할 수 있다. 상기 제2 터치 입력은 드래그 입력을 포함할 수 있다.
동작 1507에서, 프로세서(120)는 검출된 터치 입력의 방향 및 표시된 화살표 방향이 일치하는지 결정할 수 있다. 프로세서(120)는 검출된 제2 터치 입력에 기반하여, 제2 터치 입력의 방향을 식별할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력이 가해지는(press) 좌표 및 제2 터치 입력이 해제(release)되는 좌표간에 차이에 기반하여, 제2 터치 입력의 방향을 식별할 수 있다. 프로세서(120)는 검출된 제2 터치 입력의 방향과 상기 화살표에 의해 지시되는 방향이 일치하는지 결정할 수 있다.
일 실시 예에 따라, 프로세서(120)는 제2 터치 입력의 방향과 화살표에 의해 지시되는 방향이 일치하지 않음을 검출할 수 있다. 프로세서(120)는 화살표가 지시하는 방향을 가지는 제2 터치 입력을 수신하기 위해, 표시 장치(160)를 통해, 상기 화살표의 표시를 유지할 수 있다.
다른 실시 예에 따라, 프로세서(120)는 제2 터치 입력의 방향과 화살표에 의해 지시되는 방향의 일치를 검출할 수 있다. 프로세서(120)는 상기 일치에 따라, 지문 입력을 가이드하는 정보를 표시할 수 있다. 일 실시 예에 따라, 도 16을 참조하면, 프로세서(120)는 지문 입력을 가이드하는 이미지 및 텍스트를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문 입력을 가이드하기 위한 텍스트(예: "지문 touch")을 표시할 수 있다. 프로세서(120)는 지문 입력을 가이드하는 인터페이스(예: 지문 형상 또는 이와 유사한 형상의 이미지)를 표시할 수 있다.
동작 1509에서, 프로세서(120)는 지문 센서(224)를 통해, 제2 이미지를 획득할 수 있다. 지문 센서(224)는 지문 센서(224)를 통해 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 상기 제2 이미지는, 제2 터치 입력에 따라, 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 프로세서(120)는 지문 센서(224)에 대응하는 표시 장치(160)의 영역 상에 지문 입력을 가이드하는 인터페이스(예: 지문 또는 이와 유사한 형상의 이미지)를 표시할 수 있다. 프로세서(120)는 상기 인터페이스에 따라 사용자로부터 제공되는 지문 입력을 위한 터치를 수신할 수 있다. 상기 지문 입력을 위한 터치에 응답하여, 지문 센서(224)는 제2 상태로 변경된 지문에 대한 이미지를 획득할 수 있다. 동작 1509는 도 11의 동작 1107에 대응될 수 있다.
동작 1511에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 동작 1511는 도 11의 동작 1109에 대응될 수 있다.
도 17은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 17의 동작 1701 내지 동작 1707는 도 5의 동작 505와 관련될 수 있다.
도 17를 참고하면, 동작 1701에서, 프로세서(120)는 그립 센서(226)를 통해, 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 그립 센서(226)는 좌측 방향의 자기장 변화의 크기 및 우측 방향의 자기장 변화의 크기를 비교함으로써, 상기 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 프로세서(120)는 그립 센서(226)로부터 수신한 데이터에 기반하여, 상기 전자 장치(101)가 사용자에 의해 파지되었음 및 상기 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 예를 들어, 그립 센서(226)는 좌측 자기장 변화의 크기가 우측 자기장 변화의 크기보다 큰 경우, 왼손에 의해 파지되었음을 식별할 수 있다.
동작 1703에서, 프로세서(120)는 식별된 방향에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는 그립 센서(226)로부터 수신한 정보에 기반하여, 상기 전자 장치(101)를 파지하고 있는 손의 방향을 식별할 수 있다. 프로세서(120)는, 식별된 손의 방향에 따라, 적응적으로 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 상기 전자 장치(101)가 사용자의 왼손에 의해 파지된 경우, 프로세서(120)는 표시 장치(160)를 통해, 오른쪽을 향하는 화살표를 표시할 수 있다. 상기 화살표는, 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 좌측 면으로부터 표시 장치(160)의 중심부를 향하도록 방향을 지시할 수 있다. 다른 예를 들어, 상기 전자 장치(101)가 사용자의 오른손에 의해 파지된 경우, 프로세서(120)는 표시 장치(160)를 통해, 왼쪽을 향하는 화살표를 표시할 수 있다. 상기 화살표는, 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 우측 면으로부터 표시 장치(160)의 중심부를 향하도록 방향을 지시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 터치 입력을 가이드하기 위한 텍스트("왼쪽으로 드래그 하세요","오른쪽으로 드래그 하세요" 또는 "Drag")를 함께 상기 화살표와 함께 표시할 수 있다. 프로세서(120)는 상기 화살표 및/또는 텍스트에 의해 입력되는 제2 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력을 검출하고, 상기 검출된 제2 터치 입력의 방향 및 상기 화살표에 의해 지시되는 방향이 일치하는지 판단할 수 있다. 구체적으로, 프로세서(120)는 드래그 입력의 시작 좌표 및 해제 좌표를 식별함으로써 제2 터치 입력의 방향을 식별할 수 있다. 프로세서(120)는 식별된 제2 터치 입력의 방향과 상기 화살표에 의해 지시되는 방향이 일치하는 경우, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다.
일 실시 예에 따라, 도 18a 및 도 18b를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해 지문 센서(224)의 위치에 대응되는 영역상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 전자 장치(101)는 다수의 지문 센서들을 포함할 수 있고, 다수의 지문 센서들은 표시 장치(160) 영역에 균일하게 배치될 수 있다. 따라서, 프로세서(120)는 다수의 지문 센서들 중 하나의 지문 센서를 적응적으로 활성화할 수 있다.
예를 들어, 사용자가 왼손으로 전자 장치(101)를 파지한 경우, 프로세서(120)는 표시 장치(160)의 좌측 상단에 위치하는 지문 센서를 활성화할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 좌측 상단에 위치하는 지문 센서의 영역 상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다.
다른 예를 들어, 사용자가 오른손으로 전자 장치(101)를 파지한 경우, 프로세서(120)는 표시 장치(160)의 우측 상단에 위치하는 지문 센서를 활성화할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 우측 상단에 위치하는 지문 센서의 영역 상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 지문 입력을 가이드하는 인터페이스는 지문의 형상 및 이와 유사한 형상을 포함하는 이미지일 수 있다. 이에 따라, 사용자는 왼손으로 전자 장치(101)를 파지한 경우, 상대적으로 멀리 위치한 하단의 지문 센서 대신에, 상대적으로 가깝게 위치한 좌측의 지문 센서를 통해 지문을 입력할 수 있다.
동작 1705에서, 프로세서(120)는 지문 센서(224)를 통해 제2 이미지를 획득할 수 있다. 지문 센서(224)는 지문 센서(224)를 통해 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 상기 제2 이미지는, 제2 터치 입력에 따라, 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 일 실시예에 따라, 프로세서(120)는 사용자의 전자 장치(101)에 대한 파지 방향에 대응하는 지문 센서를 활성화 시킴으로써 상기 제2 이미지를 수신할 수 있다. 예를 들어, 도 18a를 참조하면, 프로세서(120)는 사용자가 전자 장치(101)를 왼손으로 파지했음을 지시하는 정보에 기반하여 다수의 지문 센서들 중 왼쪽 상단의 지문 센서를 활성화시키고, 상기 제2 이미지를 수신할 수 있다. 다른 예를 들어, 도 18b를 참조하면, 프로세서(120)는 사용자가 전자 장치(101)를 오른손으로 파지했음을 지시하는 정보에 기반하여 다수의 지문 센서들 중 오른쪽 상단의 지문 센서를 활성화시키고, 상기 제2 이미지를 수신할 수 있다. 동작 1705는 도 11의 동작 1107에 대응될 수 있다. 동작 1707에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반한 지문 인증을 수행할 수 있다. 동작 1707는 도 11의 동작 1109에 대응될 수 있다.
도 19는 본 발명의 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.
도 19를 참조하면, 동작 1901에서, 프로세서(120)는 디스플레이가 off 상태로 동작하는 동안, 사용자의 터치 입력을 검출할 수 있다. 프로세서(120)는 TSP 모듈(222)을 통해, 표시 장치(160)의 on/off 상태에 관계 없이 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 표시 장치(160)가 블랭크 스크린 또는 블랙 스크린을 표시하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 on 상태로 동작하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 수신된 터치 입력의 표시 장치(160)상의 위치 및 수신된 터치 입력의 면적에 관한 정보를 프로세서(120)에게 제공할 수 있다. 프로세서(120)는 TSP 모듈(222)로부터 제공받은 터치 입력에 관한 정보에 기반하여, 어플리케이션을 실행하거나, 표시 장치(160)의 표시를 변경할 수 있다.
상기 TSP 모듈(222)은, 사용자의 터치가 입력된 표시 장치(160) 내의 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에 저장할 수 있다. 사용자의 터치 입력에 따라, 상기 터치 입력이 수신된 위치의 표시 장치(160) 상에, 땀, 유분과 같은 물질(material)이 존재할 수 있다.
동작 1903에서, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치에 포함되는지 결정할 수 있다. 프로세서(120)는, 메모리(130)에 저장된 정보에 기반하여, 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치에 대응하는 영역상으로 터치 입력이 수신된 적이 있는지 확인할 수 있다. 예를 들어, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치를 포함하는 경우, 디스플레이가 off 상태로 동작하는 동안, 지문 센서가 위치하는 영역 상에 터치 입력이 발생하였음을 결정할 수 있다.
일 실시 예에 따라, 도 20a 및 도 20b를 참조하면, 프로세서(120)는, TSP 모듈(222)을 통해, 표시 장치(160)의 off 상태에서 수신된 터치 입력을 검출할 수 있다. 예를 들어, 사용자는 표시 장치(160)가 off 상태로 동작하는 동안, 좌측 하단의 영역(2010)을 터치할 수 있다. 터치 입력이 검출된 영역은 다수의 지문 센서들 중 하나의 지문 센서가 배치된 영역과 동일할 수 있다. 프로세서(120)는 터치 입력이 검출된 좌측 하단의 영역(2010)이 다수의 지문 센서 영역들의 위치(2010 내지 2060)에 포함됨을 결정할 수 있다.
다른 예를 들어, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치를 포함하지 않는 경우, 디스플레이가 off로 동작하는 동안, 지문 센서가 위치하는 영역 이외의 영역에서 터치 입력이 발생하였음을 결정할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 드래그 입력을 통해 지문 센서가 위치하는 영역과 구별되는 상이한 영역에 존재하는 땀, 또는 유분과 같은 기타 물질(materal)을 획득하기 위하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다.
동작 1905에서, 프로세서(120)는 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는 검출된 터치 입력의 위치에 기반하여, 하나의 지문 센서를 식별할 수 있다. 식별된 지문 센서는 좌측하단의 영역(2010)에 위치하는 지문 센서일 수 있다. 프로세서(120)는 식별된 지문 센서에 대한 좌측 하단의 영역(2010)상에 지문 입력을 가이드하는 정보를 표시할 수 있다. 지문 입력을 가이드하는 정보는 지문의 형상 또는 이와 유사한 형상의 이미지를 포함할 수 있다.
동작 1907에서, 프로세서(120)는 지문 이미지를 획득할 수 있다. 프로세서(120)는 지문 센서(224)를 통해, 수신된 터치 입력에 대한 지문 이미지를 획득할 수 있다. 상기 지문 이미지는, 제2 상태(예: 지문이 건조하지 않은 상태, 또는 지문에 유분이 존재하는 상태)에 대응될 수 있다. 사용자의 터치 입력 시, 작은 골 영역은 지문 센서가 위치하는 영역상에 존재하는 유분을 획득할 수 있다. 따라서, 획득된 지문은 제2 상태에 대응될 수 있다. 프로세서(120)는 사용자의 드래그 입력을 가이드하는 정보를 표시하지 않고, 지문 인식의 인식률을 향상시킬 수 있다.
동작 1909에서, 프로세서(120)는 획득된 지문 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 동작 1909은, 도 17의 동작 1707에 대응될 수 있다.
한편, 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치에 있어서,
    터치 디스플레이;
    상기 터치 디스플레이의 적어도 일부 영역에 형성된 지문 센서;
    메모리; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 터치 디스플레이를 통해 검출되는 상기 적어도 일부 영역에 대한 제1 터치 입력에 기반하여, 상기 지문 센서를 이용하여 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고,
    상기 획득된 제1 이미지 및 상기 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 및
    상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하도록 설정되는 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는,
    상기 터치 디스플레이를 통해, 상기 적어도 일부 영역에 대한 제3 터치 입력을 수신하고,
    상기 제3 터치 입력에 기반하여, 상기 제2 상태로 변경된 상기 지문에 대한 제2 이미지를 획득하도록 더 설정되는 전자 장치.
  3. 청구항 2에 있어서,
    상기 프로세서는,
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 제2 이미지 및 상기 기준 이미지의 일치율을 판단하고, 및
    상기 일치율이 지정된 범위를 만족하는 경우, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 장치.
  4. 청구항 2에 있어서,
    상기 프로세서는,
    상기 터치 디스플레이의 제1 지점으로부터 제2 지점까지 드래그 입력을 가이드하기 위한 상기 제1 지점 및 상기 제2 지점을 포함하는 그래픽 오브젝트를 상기 정보로 표시하고,
    상기 제1 지점으로부터 상기 제2 지점까지 상기 드래그 입력을, 상기 그래픽 오브젝트에 대응되는 상기 터치 디스플레이의 적어도 일부 영역을 통해 검출하고,
    상기 터치 디스플레이 내부의 제3 지점에 위치하는 상기 지문 센서를 통해, 상기 제3 터치 입력을 수신하고,
    상기 제3 터치 입력에 기반하여, 상기 지문에 대한 상기 제2 이미지를 획득하고, 및
    상기 제2 이미지 및 상기 기준 이미지를 비교함으로써, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 전자 장치.
  5. 청구항 2에 있어서,
    상기 프로세서는,
    상기 터치 디스플레이를 통해, 상기 터치디스플레이의 일면으로부터 상기 일면에 대면하는 다른(another) 일면으로 향하는 방향을 지시하기 위한 그래픽 오브젝트를 상기 정보로 표시하고,
    상기 터치 디스플레이를 통해, 상기 제2 터치 입력을 검출하고, 및
    상기 제2 터치 입력의 이동 방향과 상기 표시된 그래픽 오브젝트가 지시하는 방향이 일치하는지 확인하도록 더 설정되는 전자 장치.
  6. 청구항 5에 있어서,
    적어도 하나의 압력 센서를 더 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 압력 센서를 통해, 임계 값 이상의 터치 입력을 검출하고, 및
    상기 검출에 기반하여, 상기 터치 디스플레이를 통해 상기 그래픽 오브젝트를 표시하고,
    상기 제2 터치 입력을 검출하고,
    상기 검출된 제2 터치 입력의 이동 방향과 상기 그래픽 오브젝트가 지시하는 방향이 일치하는지 확인함으로써, 상기 제2 이미지를 획득하기 위한 다른(another) 그래픽 오브젝트를 표시하고,
    상기 표시된 다른 그래픽 오브젝트에 대응하는 제 3 터치 입력에 응답하여, 상기 지문 센서를 이용하여 상기 제2 이미지를 획득하고, 및
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 전자 장치.
  7. 청구항 5에 있어서,
    적어도 하나의 그립 센서를 더 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 그립 센서를 통해, 상기 사용자가 상기 전자 장치를 파지한 손의 방향을 검출하고, 및
    상기 손의 방향에 기반하여 상기 일면을 결정하도록 설정된 전자 장치.
  8. 청구항 1에 있어서,
    상기 제1 이미지는,
    상기 지문의 마루(Ridge) 영역에 대응하고, 제1 색상을 가지는 제1 영역 및 상기 지문의 골(Valley) 영역에 대응하고, 제2 색상을 가지는 제2 영역을 포함하고,
    상기 기준 이미지는,
    상기 지문의 마루 영역에 대응하고, 제1 색상을 가지는 제3 영역 및 상기 지문의 골 영역에 대응하고, 제2 색상을 가지는 제4 영역을 포함하고,
    상기 프로세서는,
    상기 제1 이미지와 상기 기준 이미지를 비교함으로써, 상기 제1 이미지 내의 제1 색상을 가지는 제1 영역이 상기 기준 이미지 내의 제1 색상을 가지는 제3 영역과 상이함을 검출하고, 및
    상기 검출에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것으로 결정하도록 설정되는 전자 장치.
  9. 청구항 8에 있어서,
    상기 프로세서는,
    상기 기준 이미지의 상기 제4 영역 및 상기 제1 이미지의 상기 제2 영역을 비교함으로써, 상기 제4 영역 및 상기 제2 영역의 일치율이 제1 임계 값보다 크거나 같음을 검출하고,
    상기 기준 이미지의 상기 제3 영역 및 상기 제1 이미지의 상기 제1 영역을 비교함으로써, 상기 제3 영역 및 상기 제1 영역의 일치율이 제2 임계 값보다 크거나 같음을 검출하고, 및
    상기 제1 영역 내지 상기 제4 영역의 비교에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것을 결정하도록 설정되는 전자 장치.
  10. 청구항 2에 있어서,
    상기 프로세서는,
    상기 터치 디스플레이를 통해, 격자로 배열되는 다수의 객체들을 표시하고,
    상기 다수의 객체들 중 적어도 일부의 객체들과 관련된 상기 제2 터치 입력을 검출하고, 및
    상기 제 2 터치 입력 및 기 저장된 패턴 정보에 기반하여, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 전자 장치.
  11. 청구항 10에 있어서,
    상기 패턴 정보는, 상기 전자 장치의 인증된 사용자에 의해 미리 저장된, 객체들의 순서에 관한 정보를 포함하고,
    상기 프로세서는,
    상기 적어도 일부의 객체들에 대한 상기 제 2 터치 입력의 순서 및 상기 패턴 정보가 포함하는 객체들의 순서가 일치하는지 결정하고,
    상기 결정에 기반하여, 상기 지문 센서를 이용하여 상기 제2 이미지를 획득하도록 설정되는 전자 장치.
  12. 전자 장치에 있어서,
    터치 디스플레이;
    상기 터치 디스플레이의 하단에 배치되는 다수의 지문 센서;
    메모리; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 터치 디스플레이를 통해 터치 입력을 검출하고,
    상기 검출된 터치 입력의 위치가 상기 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치에 포함되는지 여부를 결정하고,
    상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 설정되는 전자 장치.
  13. 전자 장치의 동작 방법에 있어서,
    터치 디스플레이를 통해 검출되는 적어도 일부 영역에 대한 제1 터치 입력에 기반하여, 지문 센서를 이용하여 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하는 동작과,
    상기 획득된 제1 이미지 및 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하는 동작과,
    상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하는 동작을 포함하는 방법.
  14. 청구항 13에 있어서,
    상기 터치 디스플레이를 통해 검출되는 상기 적어도 일부 영역에 대한 제3 터치 입력에 기반하여, 상기 제2 상태로 변경된 상기 지문에 대한 제2 이미지를 획득하는 동작을 더 포함하는 방법.
  15. 청구항 14에 있어서,
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 제2 이미지 및 상기 기준 이미지의 일치율을 판단하는 동작과,
    상기 일치율이 지정된 범위를 만족하는 경우, 상기 사용자를 인증된 사용자로 결정하는 동작을 더 포함하는 방법.
  16. 청구항 14에 있어서, 상기 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하는 동작은,
    상기 터치 디스플레이의 제1 지점으로부터 제2 지점까지 드래그 입력을 가이드하기 위한 상기 제1 지점 및 상기 제2 지점을 포함하는 그래픽 오브젝트를 상기 정보로 표시하는 동작과,
    상기 제1 지점으로부터 상기 제2 지점까지 상기 드래그 입력을, 상기 그래픽 오브젝트에 대응되는 상기 터치 디스플레이의 영역을 통해 검출하는 동작과,
    상기 터치 디스플레이의 제3 지점에 위치하는 상기 지문 센서를 통해, 상기 지문에 의한 터치 입력을 수신하는 동작과,
    상기 터치 입력에 기반하여, 상기 지문에 대한 상기 제2 이미지를 획득하는 동작과,
    상기 제2 이미지 및 상기 기준 이미지를 비교함으로써, 상기 사용자를 인증된 사용자로 결정하는 동작을 포함하는 방법.
  17. 청구항 14에 있어서, 상기 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하는 동작은,
    상기 터치 디스플레이를 통해, 상기 터치 디스플레이의 일면으로부터 상기 일면에 대면하는 다른(another) 일면으로 향하는 방향을 지시하기 위한 그래픽 오브젝트를 상기 정보로 표시하는 동작과,
    상기 터치 디스플레이를 통해, 상기 제2 터치 입력을 검출하는 동작과,
    상기 제2 터치 입력의 이동 방향과 상기 표시된 화살표가 지시하는 방향이 일치하는지 확인하는 동작을 포함하는 방법.
  18. 청구항 17에 있어서, 상기 그래픽 오브젝트를 표시하는 동작은,
    적어도 하나의 압력 센서를 통해, 임계 값 이상의 터치 입력을 검출하는 동작과,
    상기 검출에 기반하여, 상기 터치 디스플레이를 통해 상기 그래픽 오브젝트를 표시하는 동작과,
    상기 제2 터치 입력을 검출하는 동작과,
    상기 검출된 제2 터치 입력의 이동 방향과 상기 그래픽 오브젝트가 지시하는 방향이 일치하는지 확인함으로써, 상기 제2 이미지를 획득하기 위한 다른(another) 그래픽 오브젝트를 표시하는 동작을 포함하는 방법.

  19. 청구항 13에 있어서,
    상기 제1 이미지는,
    상기 지문의 마루(Ridge) 영역에 대응하고, 제1 색상을 가지는 제1 영역 및 상기 지문의 골(Valley) 영역에 대응하고, 제2 색상을 가지는 제2 영역을 포함하고,
    상기 기준 이미지는,
    상기 지문의 마루 영역에 대응하고, 제1 색상을 가지는 제3 영역 및 상기 지문의 골 영역에 대응하고, 제2 색상을 가지는 제4 영역을 포함하고,
    상기 지문의 상태가 상기 제1 상태에 대응함을 확인하는 동작은,
    상기 제1 이미지와 상기 기준 이미지를 비교함으로써, 상기 제1 이미지 내의 제1 색상을 가지는 제1 영역이 상기 기준 이미지 내의 제1 색상을 가지는 제3 영역과 상이함을 검출하는 동작과,
    상기 검출에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것으로 결정하는 동작을 포함하는 방법.
  20. 청구항 19에 있어서, 상기 지문의 상태가 상기 제1 상태에 대응함을 확인하는 동작은,
    상기 제4 영역 및 상기 제1 이미지의 상기 제2 영역을 비교함으로써, 상기 제4 영역 및 상기 제2 영역의 일치율이 제1 임계 값보다 크거나 같음을 검출하는 동작과,
    상기 기준 이미지의 상기 제3 영역 및 상기 제1 이미지의 상기 제1 영역을 비교함으로써, 상기 제3 영역 및 상기 제1 영역의 일치율이 제2 임계 값보다 크거나 같음을 검출하는 동작과,
    상기 제1 영역 내지 상기 제4 영역의 비교에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것을 결정하는 동작을 포함하는 방법.
KR1020180012403A 2018-01-31 2018-01-31 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법 KR20190093003A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180012403A KR20190093003A (ko) 2018-01-31 2018-01-31 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법
PCT/KR2018/016015 WO2019151642A1 (ko) 2018-01-31 2018-12-17 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180012403A KR20190093003A (ko) 2018-01-31 2018-01-31 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20190093003A true KR20190093003A (ko) 2019-08-08

Family

ID=67479741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180012403A KR20190093003A (ko) 2018-01-31 2018-01-31 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20190093003A (ko)
WO (1) WO2019151642A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177637A1 (ko) * 2020-03-06 2021-09-10 삼성전자 주식회사 전자 장치 및 전자 장치의 지문 인식 방법
WO2023106698A1 (ko) * 2021-12-06 2023-06-15 삼성전자 주식회사 지문 센싱 방법 및 전자 장치
US11830293B2 (en) 2021-08-26 2023-11-28 Samsung Electronics Co., Ltd. Electronic device and method for providing fingerprint recognition guide using the same
US11934503B2 (en) 2019-09-26 2024-03-19 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130030170A (ko) * 2011-09-16 2013-03-26 삼성전자주식회사 휴대용 단말기에서 지문인식을 지원하기 위한 장치 및 방법
KR102177150B1 (ko) * 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법
KR102290892B1 (ko) * 2014-12-12 2021-08-19 엘지전자 주식회사 이동단말기 및 그것의 제어방법
KR102396514B1 (ko) * 2015-04-29 2022-05-11 삼성전자주식회사 지문 정보 처리 방법 및 이를 지원하는 전자 장치
KR102532144B1 (ko) * 2016-06-24 2023-05-12 에스케이텔레콤 주식회사 터치스크린 장치 및 그 지문 인식 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11934503B2 (en) 2019-09-26 2024-03-19 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2021177637A1 (ko) * 2020-03-06 2021-09-10 삼성전자 주식회사 전자 장치 및 전자 장치의 지문 인식 방법
US11928886B2 (en) 2020-03-06 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and method for recognizing fingerprint by electronic device
US11830293B2 (en) 2021-08-26 2023-11-28 Samsung Electronics Co., Ltd. Electronic device and method for providing fingerprint recognition guide using the same
WO2023106698A1 (ko) * 2021-12-06 2023-06-15 삼성전자 주식회사 지문 센싱 방법 및 전자 장치

Also Published As

Publication number Publication date
WO2019151642A1 (ko) 2019-08-08

Similar Documents

Publication Publication Date Title
US11868459B2 (en) Operation method with fingerprint recognition, apparatus, and mobile terminal
KR102354415B1 (ko) 전자 장치 및 전자 장치 제어 방법
KR102088215B1 (ko) 복수의 어플리케이션을 제어하기 위한 전자 장치
KR102496531B1 (ko) 지문 인식을 위한 방법, 전자 장치 및 저장 매체
KR20190093003A (ko) 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법
KR102502541B1 (ko) 생체 센서의 전극들 중에서 선택된 전극을 이용하여 생체 정보를 획득하는 전자 장치 및 제어 방법
US11275458B2 (en) Method, electronic device, and storage medium for fingerprint recognition
US11157719B2 (en) Electronic device and method for recognizing fingerprint based on drag input
US11366888B2 (en) Electronic device using a fingerprint sensor included in a display of the electronic device and controlling method thereof
US20210004114A1 (en) Electronic device acquiring user input when in submerged state by using pressure sensor, and method for controlling electronic device
KR20200040597A (ko) 터치 입력의 종류에 기반하여 터치 입력 조건을 결정하는 전자 장치 및 그 동작 방법
KR102513752B1 (ko) 전자 장치 및 전자 장치의 제어 방법
US20190286874A1 (en) Method and electronic device for generating fingerprint information, based on multiple pieces of image information acquired using multiple driving schemes
KR20190088679A (ko) 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법
KR20210016875A (ko) 터치 입력에 기반한 동작 방법 및 그 전자 장치
KR20190027704A (ko) 전자 장치 및 전자 장치의 지문 인식 방법
US20210382615A1 (en) Device and method for providing feedback for user input in electronic device
KR102668223B1 (ko) 초음파 방식 인 디스플레이 지문 센서를 포함하는 전자 장치 및 그의 동작 방법
US20210041979A1 (en) Operation method based on touch input and electronic device thereof
KR20210128797A (ko) 사용자의 지문을 인식하는 전자 장치 및 동작 방법
KR20210121923A (ko) 백 그라운드 어플리케이션의 제어 방법 및 이를 지원하는 전자 장치