KR20200059438A - 생체인식을 이용한 애플리케이션 제어 방법 - Google Patents

생체인식을 이용한 애플리케이션 제어 방법 Download PDF

Info

Publication number
KR20200059438A
KR20200059438A KR1020180144158A KR20180144158A KR20200059438A KR 20200059438 A KR20200059438 A KR 20200059438A KR 1020180144158 A KR1020180144158 A KR 1020180144158A KR 20180144158 A KR20180144158 A KR 20180144158A KR 20200059438 A KR20200059438 A KR 20200059438A
Authority
KR
South Korea
Prior art keywords
fingerprint
area
display
fingerprint recognition
touch
Prior art date
Application number
KR1020180144158A
Other languages
English (en)
Inventor
박우현
Original Assignee
주식회사 하이딥
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이딥 filed Critical 주식회사 하이딥
Priority to KR1020180144158A priority Critical patent/KR20200059438A/ko
Priority to PCT/KR2019/014667 priority patent/WO2020105899A1/ko
Publication of KR20200059438A publication Critical patent/KR20200059438A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06K9/00087
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 생체인식을 이용한 애플리케이션 제어 방법에 관한 것으로, 보다 구체적으로 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법에 관한 것이다.
본 발명의 실시 형태에 따른 방법은, 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 상기 디스플레이의 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법으로서, 상기 디스플레이 영역에 복수의 애플리케이션이 표시된 화면에서 상기 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치를 감지하는 감지 단계; 상기 감지된 터치 위치가 상기 지문 인식 영역 내인지 여부를 판별하는 판별 단계; 상기 감지된 터치 위치가 상기 지문 인식 영역 내이면, 상기 터치의 지문을 인식하는 지문 인식 단계; 상기 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계; 상기 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 상기 복수의 애플리케이션들 중 상기 터치 위치에 배치된 애플리케이션의 엑세스를 허가하는 단계;를 포함한다.

Description

생체인식을 이용한 애플리케이션 제어 방법{METHOD FOR CONTROLLING APPLICATION USING biometric Authentication}
본 발명은 생체인식을 이용한 애플리케이션 제어 방법에 관한 것으로, 보다 구체적으로 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법에 관한 것이다.
스마트폰과 같은 모바일 기기에 지문인식, 얼굴인식, 홍체인식, 목소리인식 등과 같은 생체인식장치의 탑재가 기하 급수적으로 늘고 있다. 그중 가장 보편적인 생체인식장치는 지문인식장치이다.
종래의 지문인식장치는 주로 스마트폰의 전면의 홈버튼, 후면 혹은 측면에 부착되고 있다. 그중 가장 보편적인 위치가 전면의 홈버튼 위치이다. 홈버튼은 스마트폰의 베젤 영역에 위치한다.
한편, 스마트폰의 최신 디자인 트렌드는 본체대비화면비율(Screen to Body ratio)을 높여 본체의 베젤 영역을 줄이거나 없애는 추세이다. 이런 흐름에 따라 주로 스마트폰 전면의 베젤 영역에 위치한 지문인식장치를 디스플레이 영역으로 옮기는 연구가 활발하다.
지문인식장치를 디스플레이 아래에 위치(Under Display Fingerprint sensor)시키는 연구, 디스플레이의 픽셀층에 직접 지문 인식 센서를 내장(In Display Fingerprint sensor)하는 연구가 대표적이다.
최근 초음파나 광학 기술을 이용한 Under Display fingerprint sensor는 일부 스마트폰에 적용되어 판매가 되기 시작했다. 그러나 초기의 Under Display fingerprint sensor들은 디스플레이의 아주 작은 특정 영역에서만 가능하여 사용자가 그 위치를 잘 기억해야 하는 등 사용상의 불편함이 있다. 이런 불함을 없애기 위해 보다 큰 면적의 지문 인식 센서의 필요가 대두 되었다. 이런 대면적 지문 인식 센서는 디스플레이의 일부(예: ¼, 1/3, ½면적) 혹은 전체 화면영역에서 작동한다.
지문인식장치를 포함하는 생체인식장치는 사용자 본인확인을 통한 스마트폰의 잠금 해제(Device Unlock), 결재나 송금 시 본인확인 및 민감한 정보가 노출될 우려가 있는 애플리케이션의 보호에만 이용되고 있는 실정이다.
또한, 생체인식을 통한 본인인증 기능을 지원하는 애플리케이션에서 상기 기능을 이용하려면, 해당 애플리케이션별로 사용자가 상기 기능을 사전에 설정하여야 하는 불편이 있다. 예를 들어, 뱅킹 애플리케이션과 같은 애플리케이션의 경우, 생체인식을 통한 본인인증 기능을 사용하려면, 사용자는 사전에 애플리케이션에서 제공하는 복잡한 플로우에 따라 다양하고 복잡한 정보입력 및 별도의 생체인식 서비스 신청과정을 거쳐야 하는 등 초기 설정 상의 번거로움이 있다. 또한, 도 1에 도시된 바와 같이, 사용자가 실제로 특정 애플리케이션의 생체인식을 통한 본인인증 기능의 사용 시, 팝업 형태로 띄어진 대화창(10)을 통해 매번 의식적으로 생체인식을 해야 하는 번거로움이 존재한다.
또한, 모바일 메신저와 같은 애플리케이션의 경우, 사용자가 하루에 수십 내지 수백 번 이상 사용하기 때문에, 도 1에 도시된 바와 같은 대화창(10)을 통한 수십 내지 수백의 의식적인 생체인식은 사용자에게 매우 번거롭고, 번거로움의 정도가 사용자 경험을 해칠 수 있는 수준이다.
또한, 사용자가 특정 애플리케이션에 대해서 생체인식을 통한 본인인증 기능을 이용하려면, 해당 특정 애플리케이션이 상기 기능을 지원해야만 사용할 수 있다. 상기 기능을 지원하는 모든 애플리케이션은 도 2에서와 같이 지문매니저 API(FingerprintManager API)규격에 따라 만들어져야 하는 제약이 따른다.
본 발명은 해당 애플리케이션이 생체인식을 통한 본인인증 기능의 지원 여부에 관계없이, 사용자의 선택에 따라 해당 애플리케이션의 보호가 가능한 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
또한, 사용자가 아닌 타인이 해당 애플리케이션에 엑세스할 수 없도록 할 수 있는 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
또한, 애플리케이셔별로 번거로운 초기 설정과정이나 별도의 생체인식 서비스의 신청을 거칠 필요가 없는 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
또한, 번거롭고 반복적인 대화창없이 투명하게(transparently) 본인인증을 할 수 있는 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
또한, 사용자 경험을 향상시킬 수 있는 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
또한, 암호 자동완성 기능을 이용할 수 있는 로그인 화면에서 생체인식을 요구하는 별도의 대화창 없이 로그인이 가능한 생체인식을 이용한 애플리케이션 제어 방법을 제공한다.
본 발명의 실시 형태에 따른 방법은, 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 상기 디스플레이의 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법으로서, 상기 디스플레이 영역에 복수의 애플리케이션이 표시된 화면에서 상기 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치를 감지하는 감지 단계; 상기 감지된 터치 위치가 상기 지문 인식 영역 내인지 여부를 판별하는 판별 단계; 상기 감지된 터치 위치가 상기 지문 인식 영역 내이면, 상기 터치의 지문을 인식하는 지문 인식 단계; 상기 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계; 및 상기 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 상기 복수의 애플리케이션들 중 상기 터치 위치에 배치된 애플리케이션의 엑세스를 허가하는 단계;를 포함한다.
본 발명의 다른 실시 형태에 따른 방법은, 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 상기 디스플레이의 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법으로서, 상기 디스플레이 영역에 표시된 로그인 화면에서 암호 자동완성 선택부를 상기 지문 인식 영역 상에 위치시키는 단계; 상기 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치가 상기 암호 자동완성 선택부가 배치된 영역 내인지 판별하는 단계; 상기 감지된 터치 위치가 상기 암호 자동완성 선택부가 배치된 영역 내이면, 상기 터치의 지문을 인식하는 지문 인식 단계; 상기 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계; 및 상기 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 상기 로그인 화면에 표시된 아이디란과 비밀번호란에 미리 저장된 아이디와 비밀번호를 자동으로 입력하는 단계;를 포함한다.
본 발명의 실시 형태에 따른 애플리케이션 제어 방법을 사용하면, 해당 애플리케이션이 생체인식을 통한 본인인증 기능의 지원 여부에 관계없이, 사용자의 선택에 따라 해당 애플리케이션의 보호가 가능한 이점이 있다.
또한, 사용자가 아닌 타인이 해당 애플리케이션에 엑세스할 수 없도록 할 수 있는 이점이 있다.
또한, 애플리케이션별로 번거로운 초기 설정과정이나 별도의 생체인식 서비스의 신청을 거칠 필요가 없는 이점이 있다.
또한, 번거롭고 반복적인 대화창없이 투명하게(transparently) 본인인증을 할 수 있는 이점이 있다.
또한, 사용자 경험을 향상시킬 수 있는 이점이 있다.
또한, 암호 자동완성 기능을 이용할 수 있는 로그인 화면에서 생체인식을 요구하는 별도의 대화창 없이 로그인이 가능한 이점이 있다.
도 1은 종래의 생체인식(지문인식)을 통한 본인인증 기능을 지원하는 애플리케이션 사용 시, 매번 나타나는 대화창(10)의 예를 보여준다.
도 2는 종래의 생체인식(지문인식)을 통한 본인인증 기능을 지원하는 애플리케이션과 시스템 인터페이스 흐름도이다.
도 3은 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 수행할 수 있는 터치 입력 장치의 블록도이다.
도 4의 (a) 내지 (c)는 본 발명의 실시 형태에 따른 터치 입력 장치의 디스플레이(200)와 생체 인식 센서(134) 사이의 위치 관계를 하드웨어적으로 설명하기 위한 개략적인 측면도들이다.
도 5의 (a) 및 (b)는 본 발명의 실시 형태에 따른 터치 입력 장치의 디스플레이(200)에서 생체 인식 영역과 비생체 인식 영역을 설명하기 위한 개략적인 평면도이다.
도 6의 (a)는 도 5의 (a)에 도시된 생체 인식 영역(211)이 실제 스마트폰에 구현된 예시 도면이고, 도 6의 (b)는 도 5의 (b)에 도시된 생체 인식 영역(211)이 실제 스마트폰에 구현된 예시 도면이다.
도 7은 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 설명하기 위한 순서도이다.
도 8은 도 7에 도시된 지문 인식 단계(730)에 대한 하나의 실시 형태를 설명하는 순서도이다.
도 9 내지 도 10은 본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 설명하기 위한 도면들이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 형태를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 형태는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 형태는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 형태에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시 형태로 구현될 수 있다. 또한, 각각의 개시된 실시 형태 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 설명되는 터치 입력 장치에는 터치 스크린이 구비된 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말 장치, PDA(personal digital assistants), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device), 키오스크(KIOSK) 등이 포함될 수 있다.
도 3은 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법이 적용될 수 있는 터치 입력 장치(1000)의 블록도로서, 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법이 스마트폰에 적용된 한가지 예를 보여주고 있다.
터치 입력 장치(1000)는 무선 통신부(110), 입력부(120), 센싱부(130), 출력부(150), 인터페이스부(160), 메모리(140), 제어부(180) 및 전원 공급부(160) 등을 포함할 수 있다. 도 3에 도시된 구성요소들은 터치 입력 장치를 구현하는데 있어서 필수적인 것은 아니며, 본 명세서 상에서 설명되는 터치 입력 장치는 위에서 열거된 구성요소들보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
무선 통신부(110)는, 터치 입력 장치(1000)와 무선 통신 시스템 사이, 터치 입력 장치(1000)와 다른 터치 입력 장치(1000) 사이, 또는 터치 입력 장치(1000)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 터치 입력 장치(1000)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 무선 통신부(110)는, 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 터치 입력 장치(1000)에 내장되거나 외장될 수 있다.
무선 인터넷 모듈(113)은 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity) 등과 같은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
근거리 통신 모듈(114)은 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등의 기술을 이용하여 근거리 통신(Short range communication)을 지원하기 위한 것이다.
위치정보 모듈(115)은 장치의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있지만, 장치의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이(200)에 표시되거나 메모리(140)에 저장될 수 있다. 카메라(121)를 통해 얼굴인식을 위한 정보를 획득하거나 홍채인식을 위한 정보를 획득할 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 터치입력장치(1000)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 터치 입력 장치(1000)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 터치 입력 장치(1000)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
센싱부(130)는 장치 내 정보, 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(130)는 근접센서(131, proximity sensor), 조도 센서(132, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 압력 센서(pressure sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor) 등을 포함할 수 있다.
센싱부(130)는 생체 인식 센서(134)를 포함할 수 있다. 여기서, 생체 인식 센서(134)는 지문센서, 적외선센서, 열적외선센서를 포함할 수 있다. 이외에도 생체 인식 센서(134)는 생체정보를 인식할 수 있는 어떠한 센서도 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(200), 음향 출력부(152), 햅틱 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다.
디스플레이(200)는 예를 들면 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 등으로 구성할 수 있다. 디스플레이(200)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 터치 입력 장치(1000)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 터치 입력 장치(1000)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
디스플레이(200)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이(200)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이(200)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다. 한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우와 윈도우의 배면 상의 디스플레이 사이에 배치되거나, 윈도우의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 실시 형태에 따라서는 디스플레이(200)의 터치센서에서 감지된 신호로부터 터치 여부 및 터치 위치를 감지하기 위한 컨트롤러가 구비될 수 있다. 이 경우에 컨트롤러는 감지된 터치 위치를 제어부(180)로 전송한다. 또는, 디스플레이(200)는 터치센서에서 감지된 신호 또는 이를 디지털로 변환한 데이터를 제어부(180)로 전송하고, 제어부(180)가 터치 여부 및 터치 위치를 판단하도록 구성할 수도 있다.
디스플레이(200)는 디스플레이 패널(display panel)을 포함한다. 예를 들어, 디스플레이(200)는 액정 디스플레이 패널(LCD panel), 박막 트랜지스터 액정 디스플레이(TFT LCD panel), 유기 발광 다이오드 패널(OLED panel)을 포함할 수 있다. 디스플레이(200)는 디스플레이 패널 이외에도 터치 표면을 갖는 커버층, 커버층에 결합된 터치센서를 더 포함할 수 있다.
음향 출력부(152)는 음악이나 음성 등의 오디오 신호를 출력하기 위한 것으로서 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다. 햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 광출력부(154)는 터치입력장치(1000)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 터치입력장치(1000)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
메모리(140)는 터치입력장치(1000)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(140)는 터치입력장치(1000)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 터치입력장치(1000)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 터치입력장치(1000)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 터치입력장치(1000)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(140)에 저장되고, 터치입력장치(1000) 상에 설치되어, 제어부(180)에 의하여 상기 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 터치입력장치(1000)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(140)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 또한, 제어부(180)는 메모리(140)에 저장된 응용 프로그램을 구동하기 위하여, 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 터치입력장치(1000)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 터치입력장치(1000)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함할 수 있으며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 형태들에 따른 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 장치의 동작, 제어, 또는 제어방법은 상기 메모리(140)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 장치 상에서 구현될 수 있다.
도 4의 (a) 내지 (c)는 본 발명의 실시 형태에 따른 터치 입력 장치의 디스플레이(200)와 생체 인식 센서(134) 사이의 위치 관계를 하드웨어적으로 설명하기 위한 개략적인 측면도들이다.
도 4의 (a)를 참조하면, 생체 인식 센서(134)는 디스플레이(200) 아래에 배치될 수 있다. 여기서, 생체 인식 센서(134)는 디스플레이(200)로부터 소정 간격 떨어져 배치될 수 있다. 이 경우, 생체 인식 센서(134)와 디스플레이(200) 사이에 소정의 구성이 배치될 수도 있다. 한편, 별도로 도면에 도시하지 않았지만, 생체 인식 센서(134)는 디스플레이(200) 상에 배치될 수도 있다.
도 4의 (b)를 참조하면, 생체 인식 센서(134)는 디스플레이(200) 내부에 포함 또는 내장될 수 있다. 예를 들어, 디스플레이(200)에서 빛을 발광하는 픽셀층 내부에 생체 인식 센서(134)가 배치될 수 있다. 또는 픽셀층의 일부 픽셀들이 생체 인식 신호를 출력하는 생체 인식 센서(134)가 될 수도 있다.
도 4의 (c)를 참조하면, 생체 인식 센서(134)는 디스플레이(200) 위에 배치될 수 있다. 생체 인식 센서(134)는 터치센서와 일체형으로 제공될 수 있다.
도 5의 (a) 및 (b)는 터치 입력 장치의 디스플레이(200)에서 생체 인식 영역과 비생체 인식 영역을 설명하기 위한 개략적인 평면도이다.
도 5의 (a)를 참조하면, 디스플레이(200)는 소정의 정보가 디스플레이되는 디스플레이 영역(210)을 포함한다. 여기서, 디스플레이(200)는 어떠한 정보도 디스플레이되지 않는 베젤 영역(230)을 포함할 수도 있다.
디스플레이 영역(210)은 생체인식이 가능한 생체 인식 영역(211)을 포함한다. 생체 인식 영역(211)과 대응되는 부분에 도 4의 (a) 내지 (c)에 도시된 바와 같은 생체 인식 센서(134)가 배치될 수 있다.
생체 인식 영역(211)은 디스플레이 영역(210)의 일부일 수 있고, 디스플레이 영역(210)의 하부에 배치될 수 있다. 그러나 이에 한정하는 것은 아니고, 생체 인식 영역(211)은 디스플레이 영역(210)에서 좌측 중앙에 배치되거나 우측 중앙, 또는 상부에 배치될 수 있다. 또한, 생체 인식 영역(211)은 둘 이상으로서, 복수의 생체 인식 영역들이 디스플레이 영역(210) 내에 배치될 수 있다.
도 5의 (b)를 참조하면, 생체 인식 영역(211')은 디스플레이 영역(210)과 동일할 수 있다. 생체 인식 영역(211')과 대응되는 부분에 도 4의 (a) 내지 (c)에 도시된 바와 같은 생체 인식 센서(134)가 배치될 수 있다.
도 5의 (a) 및 (b)에 도시된 생체 인식 영역(211, 211')은 디스플레이(200)가 일반적으로 사용되는, 즉 일반적인 사용모드에서는 사용자에게 보이지 않도록 투명할 수 있다. 한편, 생체 인식 영역(211, 211')은 일반적인 사용모드에서 다른 영역(비생체 인식 영역)과 구별되도록 표시될 수도 있다. 생체 인식 영역(211, 211')의 표시는 도 3에 도시된 제어부(180)에서 디스플레이(200)를 제어함으로서 가능할 수 있다.
반면, 도 5의 (a) 및 (b)에 도시된 생체 인식 영역(211)은 설정모드에서는 사용자에게 보이도록 디스플레이될 수 있다. 예를 들어, 사용자가 생체 인식 영역(211)으로 소정의 애플리케이션을 이동시키는 경우, 또는 사용자가 생체 인식 영역(211)의 크기나 위치를 변경하는 경우에 사용자에게 보이도록 표시될 수 있다.
도 4의 (a) 내지 (c) 및 도 5의 (a) 내지 (b)에서, 생체 인식 센서(134)는 지문 인식 센서일 수 있다.
지문 인식 센서는, 일 예로 복수 개의 캐패시턴스들의 배열로 구성된 캡(cap)들을 포함하여 캡 방식으로 손가락의 지문을 감지할 수 있다.
다른 예로, 지문 인식 센서는, 디스플레이(200)에서 반사되는 빛을 수광하는 수광 센서들을 포함하여 광학 방식으로 손가락의 지문을 감지할 수도 있다. 이 경우, 디스플레이(200)의 불규칙한 홀에 의한 빛의 회절로 인하여 지문센서로 입력되는 지문의 이미지의 왜곡이 발생될 수 있기 때문에, 디스플레이(200) 및 지문 인식 센서(134) 사이에 핀 홀 레이어(pin hole layer, 미도시)가 더 마련될 수 있다. 핀 홀 레이어는, 디스플레이(200)에서 반사되는 빛의 회절을 감쇄시켜 왜곡이 최소화된 지문 이미지를 지문센서(134)가 획득하도록 할 수 있다. 또한, 디스플레이(200) 및 지문 인식 센서(134) 사이에는 핀 홀 레이어뿐만 아니라 콜리메이터 레이어(Collimator Layer), 콜리메이터와 마이크로렌즈가 복합된 레이어(Micro lens over collimator Layer) 등을 더 포함할 수도 있다.
또 다른 예로, 지문 인식 센서는 피에조 필름(piezo)을 구비하여 초음파 방식으로 손가락의 지문을 감지할 수도 있다.
또 다른 예로, 지문 인식 센서는 터치 센서와 일체형으로 구성되어 하나의 센서로 터치뿐만 아니라 지문도 인식할 수도 있다.
상술한 지문 인식 센서의 예들이 본 발명의 실시 형태의 터치 입력 장치의 지문 인식 센서로 한정되는 것은 아니다. 언급되지 않았지만, 본 발명의 출원 당시에 공지된 지문센서도 본 발명의 실시 형태의 터치 입력 장치의 지문 인식 센서에 포함된다.
도 6의 (a)는 도 5의 (a)에 도시된 생체 인식 영역(211)이 실제 스마트폰에 구현된 경우의 예시 도면이고, 도 6의 (b)는 도 5의 (b)에 도시된 생체 인식 영역(211)이 실제 스마트폰에 구현된 경우의 예시 도면이다.
도 6의 (a)를 참조하면, 도 6의 (a)에 도시된 스마트폰의 디스플레이 영역(210)의 하단부 중앙에 생체 인식 영역(211)이 형성된다. 설명의 편의를 위해, 생체 인식 영역(211)이 다른 영역(비 생체 인식 영역)과 식별되도록 표시되어 있으나, 스마트폰의 일반적인 사용모드에서는 생체 인식 영역(211)은 투명하게 표시되고, 설정모드에서는 생체 인식 영역(211)이 도 6에 도시된 바와 같이 소정의 색상으로 구별되도록 표시될 수 있다.
도 6의 (b)를 참조하면, 도 6의 (b)에 도시된 스마트폰의 디스플레이 영역(210) 전체에 생체 인식 영역(211')이 형성된다.
생체 인식 영역(211, 211')에 위치한 애플리케이션(app)은, 해당 애플리케이션이 생체인식을 통한 본인인증 기능을 가지고 있는지 여부와 무관하게, 생체 인식 영역(211, 211') 내에서 터치가 감지되면, 생체 인식 영역(211, 211') 아래에 위치한 생체 인식 센서를 통해 본인인증이 수행되고, 본인인증 결과 등록된 사용자임이 확인되면 터치로 선택된 애플리케이션이 열리고, 사용자는 선택된 애플리케이션을 정상적으로 사용할 수 있다.
한편, 등록된 사용자가 아닐 경우, 선택된 애플리케이션이 열리지 않을 수 있고, 소정의 팝업형태의 대화창을 디스플레이 영역(210)에 표시하여 다시 한번 생체인식을 할 것을 사용자에게 요구할 수 있다. 2차 본인인증 시도에도 불구하고 등록된 사용자가 아닌 것으로 판단될 경우, 소정의 안내 메시지를 디스플레이 영역(210)에 표시하고 선택된 애플리케이션이 열리지 않을 수 있다.
이하 도 7을 참조하여 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 구체적으로 설명하도록 한다.
도 7은 도 6에 도시된 본 발명의 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 구체적으로 설명하기 위한 순서도이다.
도 7을 설명함에 앞서서, 설명의 편의 상, 도 4 및 도 5에서의 생체 인식 센서(134)를 지문 인식 센서로, 생체 인식 영역(211)을 지문 인식 영역으로 대체하여 설명한다.
본 발명의 실시 형태에 따른 애플리케이션 제어 방법은 터치 위치를 감지하는 단계(710), 감지된 터치 위치가 지문 인식 영역 내인지를 판단하는 단계(720), 감지된 터치 위치가 지문 인식 영역 내이면 지문 인식을 수행하는 단계(730), 인식된 지문이 미리 저장된 사용자 지문에 매칭되는지를 판별하는 단계(740), 매칭이 되면 터치 위치에 배치된 애플리케이션의 엑세스(acess)를 허가하는 단계(750)을 포함한다.
터치 위치를 감지하는 단계(710)는 도 6에 도시된 디스플레이 영역(210)에 복수의 애플리케이션이 표시된 화면에서, 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치를 감지하는 단계이다. 도 3에 도시된 센싱부(130)의 터치 센서를 통해 디스플레이(200)의 터치 표면으로 입력되는 터치의 터치 위치를 감지할 수 있다. 예를 들어, 터치 센서를 통해 출력되는 신호는 제어부(180) 또는 별도의 터치 센싱 IC로 입력되어, 터치 위치가 검출될 수 있다.
감지된 터치 위치가 지문 인식 영역 내인지를 판단하는 단계(720)는, 앞서 710 단계에서 감지된 터치 위치가 도 6의 (a) 및 (b)에 도시된 생체 인식 영역(211, 211')에 포함된 것인지를 판단하는 단계일 수 있다. 720 단계는 도 3에 도시된 제어부(180)에서 수행될 수 있다.
도 6의 (a)에 도시된 바와 같은 지문 인식 영역(211)은 디스플레이 영역(210)의 일부 영역에 대응되므로, 감지된 터치 위치의 좌표(x, y)(들)가 지문 인식 영역(211) 내인지를 판별한다. 반면에, 감지된 터치 위치의 좌표(x, y)가 지문 인식 영역(211) 밖이면, 710 단계를 다시 수행하거나 터치 위치에 따른 소정의 동작이 수행될 수 있다.
도 6의 (b)에 도시된 바와 같은 지문 인식 영역(211')은 디스플레이 영역(210) 전체에 대응되므로, 터치 위치가 감지되면, 바로 해당 터치가 지문 인식 영역(211') 내인 것으로 판별하고, 730 단계가 바로 수행될 수 있다.
한편, 도면으로 도시하지 않았지만, 감지된 터치 위치가 지문 인식 영역 내인지를 판단하는 단계(720)는, 감지된 터치 위치가 도 6의 (a) 및 (b)에 도시된 지문 인식 영역(211, 211') 내에 위치한 애플리케이션의 위치인지를 판별하는 단계일 수 있다. 이러한 이유는, 사용자가 실제로 터치한 부분이 지문 인식 영역(211, 211') 내이지만, 두 개의 애플리케이션 사이인 경우, 또는 애플리케이션이 없는 부분인 경우에도 이하의 730, 740 단계들이 수행될 경우 지문 인증에 불필요한 전력이나 메모리가 소요되기 때문이다.
지문 인식을 수행하는 단계(730)는 디스플레이의 터치 표면 상에 위치한 손가락의 지문을 인식하는 단계이다. 지문 인식 방법은 지문 인식 센서에 따라 다를 수 있다. 이하에서는 도 8을 참조하여 하나의 지문 인식 방법을 구체적으로 설명하도록 한다.
도 8은 도 7에 도시된 지문 인식 단계(730)에 대한 하나의 실시 예를 설명하는 순서도이다.
도 8을 참조하면, 도 7에 도시된 지문 인식 단계(730)의 하나의 구체적인 실시 예는, 일부 영역 설정 및 턴온 단계(731), 스캔 영역 설정 및 스캔 단계(733)를 포함한다. 여기서, 전송 단계(735), 이미지 프로세싱 단계(737) 및 특징 추출 단계(739)를 더 포함할 수 있다.
일부 영역 설정 및 턴온 단계(731)는, 도 6의 (a) 및 (b)에 도시된 디스플레이 영역(210)에서 지문 센싱을 위한 소정의 광을 방출하는 일부 영역을 설정하고, 설정된 일부 영역에서 상기 소정의 광이 방출되도록 디스플레이를 제어하는 단계이다.
일부 영역은 디스플레이의 복수의 픽셀들에서 감지된 터치 위치의 좌표를 기준으로 한 소정의 픽셀들로 설정될 수 있다. 예를 들어, 감지된 터치 위치의 좌표를 기준으로 위로 200픽셀, 아래로 200픽셀, 좌로 100픽셀, 우로 100픽셀을 일부 영역으로 설정할 수 있다. 일부 영역으로 설정된 픽셀들에서는 지문 센싱을 위한 소정의 파장이 방출된다. 여기서, 소정의 파장은 예를 들어 중심파장이 대략 510nm일 수 있다.
일부 영역이 설정되면, 제어부(180)는 디스플레이(200)를 제어하여, 설정된 일부 영역에 포함된 픽셀들에서 지문 인식을 위한 소정의 파장을 갖는 광이 방출되도록 제어할 수 있다.
일부 영역 설정 및 턴온 단계(731)는 도 3에 도시된 제어부(180)에서 수행될 수 있다. 여기서, 도 3에 도시된 제어부(180)는 디스플레이(200)를 제어하는 DDIC(Display Driver IC)를 포함할 수 있다.
스캔 영역 설정 및 스캔 단계(733)는 도 6의 (a) 및 (b)에 도시된 지문 인식 영역(211, 211')에서 지문에서 반사된 광을 수신하는 스캔 영역을 설정하고, 지문 인식 센서에서 설정된 스캔 영역에 대응된 부분만 스캐닝되도록 제어하는 단계이다.
스캔 영역은, 지문 인식 센서에서의 소정 영역과 대응될 수 있다. 또한, 스캔 영역은 731 단계에서 설정된 일부 영역과 대응될 수 있다. 즉, 스캔 영역은 지문 인식을 위한 소정의 파장을 갖는 광이 방출되는 일부 영역과 겹칠 수 있다. 스캔 영역의 크기는 일부 영역과 동일할 수도 있고, 일부 영역보다 더 클 수도 있으며, 더 작을 수도 있다. 예를 들어, 감지된 터치 위치의 좌표를 기준으로 위로 200픽셀, 아래로 200픽셀, 좌로 100픽셀, 우로 100픽셀과 대응되는 영역을 스캔 영역으로 설정할 수 있다.
스캔 영역이 설정되면, 제어부(180)는 지문 인식 센서를 제어하여, 설정된 스캔 영역과 대응되는 소정 영역에서만 스캐닝이 수행되도록 제어할 수 있다.
스캔 영역 설정 및 스캔 단계(733)는 도 3에 도시된 제어부(180)에서 수행될 수 있다. 여기서, 도 3에 도시된 제어부(180)는 설정된 스캔 영역의 스캔을 제어하는 ROIC(Read Out IC)를 포함할 수 있다.
스캔 영역의 스캐닝을 통해 획득된 데이터(이하, 지문 스캐닝 데이터라 함)를 도 3에 도시된 제어부(180)로 전송한다(735). 좀 더 구체적으로, 지문 인식 센서에서 획득된 지문 스캐닝 데이터를 제어부(180)의 보안 영역(secure area)으로 전송할 수 있다. 여기서, 제어부(180)는 별도로 독립되어 지문 정보와 같은 생체 정보, 결제 정보, 보안 문서 등의 중요한 정보를 저장하는 보안 영역을 포함할 수 있다. 보안 영역을 포함하기 위해서, 제어부(180)에는 TEE(Trusted Execution Environment)이 구축된 것일 수 있다.
지문 스캐닝 데이터를 전송받은 제어부(180)는 이미지 프로세싱을 수행한다(737). 이미지 프로세싱은, 전송받은 지문 스캐닝 데이터를 소정의 알고리즘을 이용하여 수정 또는 변경하는 것일 수 있으며, 노이즈를 줄이는 전처리와 보정 과정의 후처리를 포함할 수 있다.
제어부(180)는 이미지 프로세싱된 지문 이미지에서 도 7의 740 단계에서 사용될 특징(들)을 추출한다(739). 특징 추출 방법의 일 예가 대한민국공개특허 제1999-0074775호(공개일자 1999.10.05)에 기재되어 있다. 본 발명에서 특징 추출 방법이 상기 대한민국공개특허에 개시된 내용으로만 국한되는 것은 아님에 유의해야 한다.
제어부(180)는 추출된 특징을 기초로 도 7에 도시된 740 단계를 수행할 수 있다.
다시, 도 7을 참조하면, 인식된 지문이 미리 저장된 사용자 지문에 매칭되는지를 판별하는 단계(740)는 인식된 지문과 미리 저장된 사용자의 템플릿 지문 이미지(Template fingerprint image)를 비교하는 단계일 수 있다. 이러한 단계는 도 3에 도시된 제어부(180)에서 수행될 수 있다.
인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 터치 위치에 배치된 애플리케이션의 엑세스(acess)를 허가한다(750). 한편, 740 단계에서 인식된 지문이 미리 저장된 사용자 지문에 매칭되지 않으면, 터치 위치에 배치된 애플리케이션의 엑세스를 불허가한다(760).
애플리케이션의 엑세스를 허가한다는 의미는 사용자의 터치에 의해 애플리케이션이 열려 해당 애플리케이션이 제공하는 정보가 디스플레이 영역(210)의 화면에 표시된다는 것을 의미할 수 있다. 도 3에 도시된 제어부(180)가 디스플레이(200)를 제어하여 애플리케이션의 활성화된 화면이 디스플레이되도록 할 수 있다.
한편, 애플리케이션의 엑세스를 불허가한다는 의미는, 사용자의 터치에 의해 애플리케이션이 열리지 않고, 사용자가 터치하기 직전의 화면이 디스플레이 영역(210)의 화면에 표시된다는 것을 의미할 수 있다. 여기서, 애플리케이션의 엑세스가 불허가되면, 디스플레이 영역(210)의 화면에 도 1에 도시된 바와 같은 대화창(10)이 형성될 수 있다. 대화창(10)을 통해 사용자는 다시 지문 인증을 수행할 수 있다. 대화창(10)을 통한 지문 인증을 통해서도 인식된 지문과 미리 저장된 사용자 지문이 매칭되지 않으면, 애플리케이션이 열리지 않고, 매칭되면 애플리케이션이 열린다.
도 9 내지 도 10은 본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 설명하기 위한 도면들이다.
도 9 내지 도 10에 도시된 본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법은 생체인식을 이용한 로그인 방법일 수 있다.
도 9 및 도 10에 도시된 로그인 화면은, 활성화된 인터넷 애플리케이션을 통해 사용자가 특정 웹사이트에 접속하여 로그인 페이지를 연 경우이거나, 특정 애플리케이션이 제공하는 로그인 화면일 수 있다.
종래에는 사용자가 일전에 등록했던 아이디('korea')를 선택할 수 있는 암호 자동완성 선택부(930)을 사용자(F)가 터치하면, 도 1에 도시된 바와 같은 지문 인식을 위한 대화창(10)이 화면의 중앙 상단 영역에 추가적으로 생성되면서 사용자의 지문 인증을 추가적으로 요구하였다. 이에 사용자는 지문 인증 요구에 따라 추가적인 지문 인증 과정을 수행해야 했다. 그리고, 지문 인증이 완료되면 도 10에 도시된 바와 같이 미리 저장된 아이디와 비밀번호가 아이디란(910)과 비밀번호란(920)란에 자동으로 기입되었다.
하지만, 본 발명의 다른 실시 형태에 따른 애플리케이션 제어 방법은, 도 9에 도시된 로그인 화면을 통해 로그인 시도 시, 도 1에 도시된 바와 같은 지문 인증을 위한 대화창(10)이 나타나지 않기 때문에, 사용자가 대화창을 통한 지문 인증을 해야 하는 번거러움을 줄일 수 있고, 한 번의 터치로 암호 자동완성이 수행될 수 있다.
구체적으로, 본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법은, 디스플레이 영역(210)에 표시된 로그인 화면에서 암호 자동완성 선택부(930)를 지문 인식 영역(211'') 상에 위치시키는 단계, 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치가 암호 자동완성 선택부(930)가 배치된 영역 내인지 판별하는 단계, 감지된 터치 위치가 암호 자동완성 선택부(930)가 배치된 영역 내이면, 터치의 지문을 인식하는 지문 인식 단계, 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계, 및 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 로그인 화면에 표시된 아이디란(910)과 비밀번호란(920)에 미리 저장된 아이디와 비밀번호를 자동으로 입력하는 단계를 포함한다. 여기서, 상기 단계들은 도 3에 도시된 제어부(180)에서 수행될 수 있다.
본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법의 지문 인식 단계와 매칭 단계는 도 7 및 도 8에 도시된 지문 인식 단계(730)과 매칭 단계(740)를 그대로 이용할 수 있다.
본 발명의 다른 실시 형태에 따른 생체인식을 이용한 애플리케이션 제어 방법을 사용하면, 사용자(F)가 로그인을 위해 암호 자동완성 선택부(930)를 터치하면, 곧 이어서 지문 인식 영역(211'')을 통해 선택부(930)로 입력된 사용자(F)의 지문을 인증할 수 있고, 지문 인증이 수행되어 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 종래와 같은 도 1에 도시된 대화창(10)의 필요없이, 곧바로 도 10에 도시된 바와 같이, 아이디란(910)에 미리 저장된 사용자 아이디가 자동 기입되고, 패스워드란(920)에 미리 저장된 사용자 아이디와 대응되는 패스워드가 자동으로 기입될 수 있다.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
1000: 터치 입력 장치
110: 무선 통신부
120: 입력부
130: 센싱부
140: 메모리
150: 출력부
160: 인터페이스부
180: 제어부

Claims (13)

  1. 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 상기 디스플레이의 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법에 있어서,
    상기 디스플레이 영역에 복수의 애플리케이션이 표시된 화면에서 상기 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치를 감지하는 감지 단계;
    상기 감지된 터치 위치가 상기 지문 인식 영역 내인지 여부를 판별하는 판별 단계;
    상기 감지된 터치 위치가 상기 지문 인식 영역 내이면, 상기 터치의 지문을 인식하는 지문 인식 단계;
    상기 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계;
    상기 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 상기 복수의 애플리케이션들 중 상기 터치 위치에 배치된 애플리케이션의 엑세스를 허가하는 단계;
    를 포함하는, 애플리케이션 제어 방법.
  2. 제 1 항에 있어서,
    상기 판별 단계는, 상기 감지된 터치 위치가 상기 지문 인식 영역 내이면서 상기 애플리케이션이 배치된 위치 내인지를 판별하는, 애플리케이션 제어 방법.
  3. 제 1 항에 있어서, 상기 지문 인식 단계는,
    상기 디스플레이 영역에서 상기 터치 위치를 포함한 일부 영역을 설정하고, 상기 설정된 일부 영역에서 소정의 파장을 갖는 광이 턴온되도록 상기 디스플레이를 제어하는 단계; 및
    상기 방출된 광이 지문에 의해 반사되어 되돌아오는 반사광을 수신하는 스캔 영역을 상기 지문 인식 센서에서 설정하고, 상기 설정된 스캔 영역에서 스캐닝이 되도록 상기 지문 인식 센서를 제어하는 단계;
    를 포함하는, 애플리케이션 제어 방법.
  4. 제 3 항에 있어서,
    상기 일부 영역은 상기 터치 위치의 좌표를 기준으로 상하좌우 방향으로 각각 소정 개수의 픽셀들을 포함하는, 애플리케이션 제어 방법.
  5. 제 3 항에 있어서,
    상기 일부 영역은 상기 스캔 영역과 대응되는, 애플리케이션 제어 방법.
  6. 제 1 항에 있어서,
    상기 지문 인식 영역은 일반적인 사용모드에서 투명하도록 제어되는, 애플리케이션 제어 방법.
  7. 제 1 항에 있어서,
    상기 지문 인식 영역은 설정모드에서 식별되도록 제어되는, 애플리케이션 제어 방법.
  8. 지문 인식 센서가 디스플레이 아래, 위 또는 내부에 배치되고 상기 디스플레이의 디스플레이 영역 내에 지문 인식 영역이 포함된 터치 입력 장치에서의 애플리케이션 제어 방법에 있어서,
    상기 디스플레이 영역에 표시된 로그인 화면에서 암호 자동완성 선택부를 상기 지문 인식 영역 상에 위치시키는 단계;
    상기 디스플레이의 터치 표면으로 입력되는 터치의 터치 위치가 상기 암호 자동완성 선택부가 배치된 영역 내인지 판별하는 단계;
    상기 감지된 터치 위치가 상기 암호 자동완성 선택부가 배치된 영역 내이면, 상기 터치의 지문을 인식하는 지문 인식 단계;
    상기 인식된 지문과 미리 저장된 사용자 지문을 비교하는 매칭 단계; 및
    상기 인식된 지문이 미리 저장된 사용자 지문에 매칭되면, 상기 로그인 화면에 표시된 아이디란과 비밀번호란에 미리 저장된 아이디와 비밀번호를 자동으로 입력하는 단계;
    를 포함하는, 애플리케이션 제어 방법.
  9. 제 8 항에 있어서, 상기 지문 인식 단계는,
    상기 디스플레이 영역에서 상기 터치 위치를 포함한 일부 영역을 설정하고, 상기 설정된 일부 영역에서 소정의 파장을 갖는 광이 턴온되도록 상기 디스플레이를 제어하는 단계; 및
    상기 방출된 광이 지문에 의해 반사되어 되돌아오는 반사광을 수신하는 스캔 영역을 상기 지문 인식 센서에서 설정하고, 상기 설정된 스캔 영역에서 스캐닝이 되도록 상기 지문 인식 센서를 제어하는 단계;
    를 포함하는, 애플리케이션 제어 방법.
  10. 제 9 항에 있어서,
    상기 일부 영역은 상기 터치 위치의 좌표를 기준으로 상하좌우 방향으로 각각 소정 개수의 픽셀들을 포함하는, 애플리케이션 제어 방법.
  11. 제 9 항에 있어서,
    상기 일부 영역은 상기 스캔 영역과 대응되는, 애플리케이션 제어 방법.
  12. 제 8 항에 있어서,
    상기 지문 인식 영역은 일반적인 사용모드에서는 투명하도록 제어되는, 애플리케이션 제어 방법.
  13. 제 8 항에 있어서,
    상기 지문 인식 영역은 설정모드에서 식별되도록 제어되는, 애플리케이션 제어 방법.
KR1020180144158A 2018-11-21 2018-11-21 생체인식을 이용한 애플리케이션 제어 방법 KR20200059438A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180144158A KR20200059438A (ko) 2018-11-21 2018-11-21 생체인식을 이용한 애플리케이션 제어 방법
PCT/KR2019/014667 WO2020105899A1 (ko) 2018-11-21 2019-11-01 생체인식을 이용한 애플리케이션 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144158A KR20200059438A (ko) 2018-11-21 2018-11-21 생체인식을 이용한 애플리케이션 제어 방법

Publications (1)

Publication Number Publication Date
KR20200059438A true KR20200059438A (ko) 2020-05-29

Family

ID=70774374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144158A KR20200059438A (ko) 2018-11-21 2018-11-21 생체인식을 이용한 애플리케이션 제어 방법

Country Status (2)

Country Link
KR (1) KR20200059438A (ko)
WO (1) WO2020105899A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150029253A (ko) * 2013-09-09 2015-03-18 삼성전자주식회사 사용자를 자동으로 인증하는 방법 및 이를 위한 전자 장치
CN104715178B (zh) * 2013-12-11 2020-04-03 深圳富泰宏精密工业有限公司 电子装置的解锁***及方法
CN104217151B (zh) * 2014-09-11 2017-10-27 三星电子(中国)研发中心 智能终端应用程序的加锁方法及智能终端
KR20170000654A (ko) * 2015-06-24 2017-01-03 주식회사 트레이스 지문 인식 시스템
KR102564267B1 (ko) * 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
WO2020105899A1 (ko) 2020-05-28

Similar Documents

Publication Publication Date Title
KR101688168B1 (ko) 이동 단말기 및 그 제어방법
EP3232299B1 (en) Physical key component, terminal, and touch response method and device
US9049983B1 (en) Ear recognition as device input
KR20180068127A (ko) 이동단말기 및 그 제어방법
US10713640B2 (en) Mobile terminal and control method therefor
KR20180136776A (ko) 이동 단말기 및 그 제어방법
US10587742B2 (en) Mobile terminal and control method therefor
KR20160071887A (ko) 이동단말기 및 그것의 제어방법
US10949644B2 (en) Fingerprint sensing method based on touch pressure in black screen mode of touch input device and touch input device for the same
US9877192B2 (en) Mobile terminal and method of controlling the same
KR20170027189A (ko) 이동 단말기 및 그 제어방법
KR20170003193A (ko) 이동 단말기 및 그 제어 방법
KR20150046766A (ko) 단말기의 잠금 해제 처리방법, 장치, 단말기 장치, 프로그램 및 기록매체
US10416778B2 (en) Mobile terminal and control method therefor
KR20150046852A (ko) 전자 장치 및 전자 장치의 암호를 이용한 인증 방법
US12039023B2 (en) Systems and methods for providing a continuous biometric authentication of an electronic device
KR20160071263A (ko) 이동단말기 및 그 제어방법
US10970373B2 (en) Mobile terminal and method for controlling the same
KR20200004724A (ko) 생체 센서를 이용하여 획득된 생체 정보를 포함하는 이미지의 상태에 기반하여, 생체 정보와 관련된 인증을 수행 하는 방법 및 이를 구현한 전자 장치
US10795508B2 (en) Mobile terminal and method for controlling the same
KR101700199B1 (ko) 이동단말기 및 그 제어방법
KR20200059438A (ko) 생체인식을 이용한 애플리케이션 제어 방법
US20220114248A1 (en) Device access using a head-mounted device
KR20160067542A (ko) 이동단말기 및 그 제어방법
KR20190095168A (ko) 터치입력장치의 블랙화면모드에서 압력으로 인한 지문 센싱 방법 및 터치입력장치

Legal Events

Date Code Title Description
E601 Decision to refuse application