KR20200110064A - 변환 모델을 이용한 인증 방법 및 장치 - Google Patents

변환 모델을 이용한 인증 방법 및 장치 Download PDF

Info

Publication number
KR20200110064A
KR20200110064A KR1020190030147A KR20190030147A KR20200110064A KR 20200110064 A KR20200110064 A KR 20200110064A KR 1020190030147 A KR1020190030147 A KR 1020190030147A KR 20190030147 A KR20190030147 A KR 20190030147A KR 20200110064 A KR20200110064 A KR 20200110064A
Authority
KR
South Korea
Prior art keywords
feature
registration
sub
input
features
Prior art date
Application number
KR1020190030147A
Other languages
English (en)
Inventor
한승주
한재준
고민수
최창규
한보형
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020190030147A priority Critical patent/KR20200110064A/ko
Priority to US16/811,452 priority patent/US11688403B2/en
Publication of KR20200110064A publication Critical patent/KR20200110064A/ko
Priority to US18/317,503 priority patent/US20230282216A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

변환 모델을 이용한 인증 방법 및 장치가 개시된다. 일 실시예에 따르면, 인증 방법은 제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하고, 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하고, 제2 등록 특징 및 입력 특징에 기초하여 인증을 수행하는 단계들을 포함한다.

Description

변환 모델을 이용한 인증 방법 및 장치{AUTHENTICATION METHOD AND APPARATUS USING TRANSFORMATION MODEL}
아래 실시예들은 변환 모델을 이용한 인증 방법 및 장치에 관한 것이다.
최근 들어, 입력 패턴을 특정 그룹으로 분류하는 문제를 해결하는 방안으로써, 인간이 지니고 있는 효율적인 패턴 인식 방법을 실제 컴퓨터에 적용시키려는 연구가 활발히 진행되고 있다. 이러한 연구 중 하나로, 인간의 생물학적 신경 세포의 특성을 수학적 표현에 의해 모델링한 인공 뉴럴 네트워크(artificial neural network)에 대한 연구가 있다. 입력 패턴을 특정 그룹으로 분류하는 문제를 해결하기 위해, 인공 뉴럴 네트워크는 인간이 가지고 있는 학습이라는 능력을 모방한 알고리즘을 이용한다. 이 알고리즘을 통하여 인공 뉴럴 네트워크는 입력 패턴과 출력 패턴들 간의 사상(mapping)을 생성해낼 수 있는데, 이를 인공 뉴럴 네트워크가 학습 능력이 있다고 표현한다. 또한, 인공 뉴럴 네트워크는 학습된 결과에 기초하여 학습에 이용되지 않았던 입력 패턴에 대하여 비교적 올바른 출력을 생성할 수 있는 일반화 능력을 가지고 있다.
일 실시예에 따르면, 기계 학습 기반의 인증 방법은 제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하는 단계; 상기 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하는 단계; 및 상기 제2 등록 특징 및 상기 입력 특징에 기초하여 인증을 수행하는 단계를 포함한다.
상기 제2 등록 특징을 획득하는 단계는 변환 모델을 이용하여 상기 제1 등록 특징을 상기 제2 등록 특징으로 변환하는 단계를 포함할 수 있다. 상기 제2 등록 특징을 획득하는 단계는 상기 제1 등록 특징으로부터 변환된 상기 제2 등록 특징을 다른 장치로부터 수신하는 단계를 포함할 수 있다. 상기 제2 특징 추출기는 상기 제1 특징 추출기가 업데이트된 버전일 수 있다.
상기 제2 등록 특징은 변환 모델에 기초하여 획득될 수 있다. 상기 변환 모델은 상기 제1 특징 추출기의 구조 및 상기 제2 특징 추출기의 구조 간의 차이에 대응하는 구조적 요소를 포함할 수 있다. 상기 제1 특징 추출기는 제1 입력 데이터의 입력에 응답하여 제1 출력 데이터를 출력하고, 상기 제2 특징 추출기는 상기 제1 입력 데이터의 입력에 응답하여 제2 출력 데이터를 출력하고, 상기 변환 모델은 상기 제1 출력 데이터의 입력에 응답하여 상기 제2 출력 데이터를 출력하도록 미리 트레이닝될 수 있다.
상기 제1 등록 특징은 제1 서브 등록 특징들을 포함하고, 상기 제2 등록 특징은 상기 제1 서브 등록 특징들로부터 변환된 제2 서브 등록 특징들을 포함할 수 있다.
상기 인증 방법은 상기 제2 서브 등록 특징들의 적합성에 기초하여 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는(discard) 단계를 더 포함할 수 있다. 상기 인증 방법은 상기 제2 서브 등록 특징들 간의 유사도에 기초하여 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는(discard) 단계를 더 포함할 수 있다. 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는 단계는 상기 제2 서브 등록 특징들 중 어느 하나 및 상기 제2 서브 등록 특징들의 나머지 간의 유사도들 및 제2 임계치에 기초하여, 상기 제2 서브 등록 특징들 중 상기 어느 하나를 버리는 단계를 포함할 수 있다. 상기 인증을 수행하는 단계는 상기 제2 등록 특징 및 상기 입력 특징 간의 유사도 및 제1 임계치에 기초하여 상기 인증을 수행하는 단계를 포함할 수 있고, 상기 제1 임계치는 상기 제2 임계치와 동일한 값을 가질 수 있다.
일 실시예에 따르면, 기계 학습 기반의 인증 장치는 프로세서; 및 상기 프로세서에서 실행되는 명령어들을 포함하는 메모리를 포함하고, 상기 명령어들이 상기 프로세서에서 실행되면, 상기 프로세서는 제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하고, 상기 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하고, 상기 제2 등록 특징 및 상기 입력 특징에 기초하여 인증을 수행한다.
도 1은 일 실시예에 따른 등록 프로세스 및 인증 프로세스를 나타낸 도면.
도 2는 일 실시예에 따른 변환 모델을 이용한 인증 프로세스를 나타낸 도면.
도 3은 일 실시예에 따른 변환 모델의 동작을 나타낸 도면.
도 4는 일 실시예에 따른 변환 모델이 생성되는 프로세스를 나타낸 도면.
도 5는 다른 일 실시예에 따른 변환 모델이 생성되는 프로세스를 나타낸 도면.
도 6은 일 실시예에 따른 제2 서브 등록 특징들을 나타낸 도면.
도 7은 일 실시예에 따른 사용자 단말의 변환 동작을 나타낸 도면.
도 8은 일 실시예에 따른 서버를 통한 변환 동작을 나타낸 도면.
도 9는 일 실시예에 따른 IoT 시스템에서 허브 디바이스를 통한 변환 동작을 나타낸 도면.
도 10은 다른 일 실시예에 따른 IoT 시스템에서 허브 디바이스를 통한 변환 동작을 나타낸 도면.
도 11은 일 실시예에 따른 인증 장치의 구성을 나타낸 블록도.
도 12는 일 실시예에 따른 인증 방법을 나타낸 동작 흐름도.
아래 개시되어 있는 특정한 구조 또는 기능들은 단지 기술적 개념을 설명하기 위한 목적으로 예시된 것으로서, 아래 개시와는 달리 다른 다양한 형태로 실시될 수 있으며 본 명세서의 실시예들을 한정하지 않는다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 등록 프로세스 및 인증 프로세스를 나타낸 도면이다. 도 1을 참조하면, 인증 장치(100)는 입력 데이터를 수신하고, 수신된 입력 데이터를 처리하여 출력 데이터를 생성한다. 입력 데이터는 입력 음성 혹은 입력 영상에 대응할 수 있다. 예를 들어, 화자 인식의 경우 입력 데이터는 음성 혹은 오디오를 포함할 수 있고, 얼굴 인식의 경우 입력 데이터는 얼굴 영상을 포함할 수 있고, 지문 인식의 경우 입력 데이터는 지문 영상을 포함할 수 있고, 홍채 인식의 경우 입력 데이터는 홍채 영상을 포함할 수 있다. 출력 데이터는 인증 결과를 포함할 수 있다. 예를 들어, 인증 결과는 인증 성공을 나타내거나, 인증 실패를 나타낼 수 있다.
인증 장치(100)는 등록 프로세스(151) 및 인증 프로세스(152)를 수행할 수 있다. 등록 프로세스(151)는 정당한 사용자가 자신을 인증 장치(100)에 등록하기 위한 것이고, 인증 프로세스(152)는 테스트 사용자가 자신이 정당한 사용자임을 주장하며 인증을 시도하기 위한 것이다. 등록 프로세스(151)는 인증 프로세스(152) 이전에 수행될 수 있다. 등록 프로세스(151)에 따라 정당한 사용자의 정보가 인증 장치(100)에 등록될 수 있다. 인증 장치(100)에 등록된 정당한 사용자의 정보는 등록 정보(혹은, 등록 특징)으로 지칭될 수 있다. 등록 정보는 '미리' 등록되는 것으로 표현될 수 있는데, 여기서 '미리'는 인증 프로세스(152) 이전을 의미할 수 있다. 인증 프로세스(152)에 따르면, 테스트 사용자가 정당한 사용자에 해당할 경우 인증은 성공할 수 있고, 테스트 사용자가 정당한 사용자에 해당하지 않는 경우 인증은 실패할 수 있다.
등록 프로세스(151)에서, 인증 장치(100)는 특징 추출기(110)를 이용하여 입력 데이터에서 적어도 하나의 특징을 추출하고, 추출된 적어도 하나의 특징에 기초하여 등록 특징을 결정할 수 있다. 인증 장치(100)는 등록 특징을 정당한 사용자의 정보로서 저장할 수 있다. 인증 프로세스(152)에서, 인증 장치(100)는 특징 추출기(110)를 이용하여 입력 데이터에서 적어도 하나의 특징을 추출하고, 추출된 적어도 하나의 특징에 기초하여 입력 특징을 결정할 수 있다. 인증 장치(100)는 비교기(120)를 이용하여 등록 특징 및 입력 특징을 비교하고, 비교 결과에 기초하여 인증 결과를 생성할 수 있다. 예를 들어, 비교 결과는 등록 특징 및 입력 특징 간의 유사도(혹은, 차이)를 포함할 수 있고, 인증 장치(100)는 유사도(혹은, 차이)를 임계치(이하, TH1으로 식별됨)와 비교하여 인증 결과를 생성할 수 있다.
특징 추출기(110) 및 비교기(120)는 각각 적어도 하나의 하드웨어 모듈, 적어도 하나의 소프트웨어 모듈, 혹은 적어도 하나의 하드웨어 모듈 및 적어도 하나의 소프트웨어 모듈의 조합을 통해 구현될 수 있다. 일례로, 특징 추출기(110) 및 비교기(120)는 각각 뉴럴 네트워크(neural network)로 구현될 수 있다. 이 경우, 뉴럴 네트워크의 적어도 일부는 소프트웨어로 구현되거나, 뉴럴 프로세서(neural processor)를 포함하는 하드웨어로 구현되거나, 혹은 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다.
예를 들어, 뉴럴 네트워크는 완전 연결 네트워크(fully connected network), 딥 컨볼루셔널 네트워크(deep convolutional network) 및 리커런트 뉴럴 네트워크(recurrent neural network) 등을 포함하는 딥 뉴럴 네트워크(deep neural network, DNN)에 해당할 수 있다. DNN은 복수의 레이어들을 포함할 수 있다. 복수의 레이어들은 입력 레이어(input layer), 적어도 하나의 히든 레이어(hidden layer), 및 출력 레이어(output layer)를 포함할 수 있다.
뉴럴 네트워크는 딥 러닝에 기반하여 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 주어진 동작을 수행하도록 트레이닝될 수 있다. 딥 러닝은 빅 데이터 세트로부터 주어진 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 최적화 문제 풀이 과정으로 이해될 수 있다. 딥 러닝의 지도식(supervised) 또는 비지도식(unsupervised) 학습을 통해 뉴럴 네트워크의 구조, 혹은 모델에 대응하는 웨이트가 구해질 수 있고, 이러한 웨이트를 통해 입력 데이터 및 출력 데이터가 서로 매핑될 수 있다.
뉴럴 네트워크는 트레이닝 단계에서 트레이닝 데이터에 기초하여 트레이닝될 수 있고, 추론(inference) 단계에서 입력 데이터에 관한 분류, 인식, 검출과 같은 추론 동작을 수행할 수 있다. 뉴럴 네트워크는 '미리' 트레이닝된 것으로 표현될 수 있는데, 여기서 '미리'는 뉴럴 네트워크에 추론을 위한 입력 데이터가 입력되기 전을 의미할 수 있다. 뉴럴 네트워크가 '시작'되었다는 것은 뉴럴 네트워크가 추론을 위한 준비가 된 것을 의미할 수 있다. 예를 들어, 뉴럴 네트워크가 '시작'된 것은 뉴럴 네트워크가 메모리에 로드된 것, 혹은 뉴럴 네트워크가 메모리에 로드된 이후 뉴럴 네트워크에 추론을 위한 입력 데이터가 입력된 것을 포함할 수 있다.
특징 추출기(110)는 입력 데이터에서 적어도 하나의 특징을 추출하여 특징 벡터를 생성할 수 있다. 특징 추출기(110)는 네트워크 입력으로부터 특징들을 추출하도록 미리 트레이닝된 뉴럴 네트워크를 포함할 수 있다. 비교기(120)는 입력 특징 벡터 및 등록 특징 벡터 간의 유사도(혹은, 차이)를 포함하는 비교 결과를 출력할 수 있다. 비교기(120)는 네트워크 입력 및 등록 특징 벡터 간의 비교 결과를 출력하도록 미리 트레이닝된 뉴럴 네트워크를 포함할 수 있다.
인증 장치(100)에 관한 업데이트, 모델 변경과 같은 사유로 인해 특징 추출기(110)는 다른 특징 추출기로 변경될 수 있다. 아래에서 특징 추출기(110)는 기존의 특징 추출기(혹은, 제1 특징 추출기)로 지칭될 수 있고, 특징 추출기(110)와 구분되는 다른 특징 추출기는 변경된 특징 추출기(혹은, 제2 특징 추출기)로 지칭될 수 있다. 예를 들어, 변경된 특징 추출기는 기존의 특징 추출기가 업데이트된 버전일 수 있다. 기존의 특징 추출기 및 변경된 특징 추출기는 특징을 추출하는 방식이 서로 다를 수 있다. 이 경우, 기존의 특징 추출기를 통해 생성된 등록 특징 및 제2 특징 추출기를 통해 생성된 입력 특징을 이용하여 인증 프로세스(152)가 수행될 수 없다.
변경된 특징 추출기에 기초하여 인증 프로세스(152)가 수행되기 위해서는 변경된 특징 추출기에 대응하는 등록 특징이 마련되어야 한다. 사용자에게 변경된 특징 추출기를 이용하여 등록 특징을 새로 등록하게 하는 것은 사용자에게 번거로움을 줄 수 있다. 실시예에 따르면, 변환 모델에 기초하여 기존의 등록 특징 추출기에 대응하는 등록 특징은 새로운 특징 추출기에 대응하는 등록 특징으로 변환될 수 있고, 변환된 등록 특징에 기초하여 인증 프로세스(152)가 수행될 수 있다. 아래에서 기존의 특징 추출기(혹은, 제1 특징 추출기)에 관해 기존의 등록 특징(혹은, 제1 등록 특징)이라는 용어가 사용될 수 있고, 변환 모델 및 변경된 특징 추출기(혹은, 제2 특징 추출기)에 관해 변환된 등록 특징(혹은, 제2 등록 특징)이라는 용어가 사용될 수 있다.
도 2는 일 실시예에 따른 변환 모델을 이용한 인증 프로세스를 나타낸 도면이다. 도 2를 참조하면, 변환 모델(210)은 제1 등록 특징을 제2 등록 특징으로 변환한다. 제1 등록 특징은 기존의 등록 특징을 의미할 수 있다. 제1 등록 특징은 도 1의 특징 추출기(110)를 이용한 도 1의 등록 프로세스(151)를 통해 등록된 것일 수 있다. 이 경우, 제1 등록 특징은 도 1의 특징 추출기(110)에 대응하는 것으로 이해될 수 있고, 제2 등록 특징은 특징 추출기(220)에 대응하는 것으로 이해될 수 있다. 일 실시예에 따르면, 특징 추출기(220)는 도 1의 특징 추출기(110)가 업데이트된 버전일 수 있다.
인증 장치(200)는 특징 추출기(220)를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정할 수 있다. 설명의 편의를 위해, 도 1의 특징 추출기(110)에 기초하여 생성된 입력 특징은 제1 입력 특징으로 지칭될 수 있고, 특징 추출기(220)에 기초하여 생성된 입력 특징은 제2 입력 특징으로 지칭될 수 있다. 인증 장치(200)는 제2 등록 특징 및 제2 입력 특징에 기초하여 인증을 수행할 수 있다. 예를 들어, 인증 장치(200)는 비교기(230)를 이용하여 제2 등록 특징 및 제2 입력 특징을 비교하여 비교 결과를 결정할 수 있고, 비교 결과 및 임계치에 기초하여 인증 결과를 생성할 수 있다.
특징 추출기(220) 및 비교기(230)는 각각 적어도 하나의 하드웨어 모듈, 적어도 하나의 소프트웨어 모듈, 혹은 적어도 하나의 하드웨어 모듈 및 적어도 하나의 소프트웨어 모듈의 조합을 통해 구현될 수 있다. 일례로, 특징 추출기(220) 및 비교기(230)는 각각 뉴럴 네트워크(neural network)로 구현될 수 있다. 특징 추출기(220) 및 비교기(230)에 관해 도 1의 뉴럴 네트워크에 관한 설명이 적용될 수 있다.
변환 프로세스(251)는 인증 장치(200)에 의해 수행되거나, 혹은 인증 장치(200)와 구분되는 다른 장치에 의해 수행될 수 있다. 예를 들어, 인증 장치(200)는 변환 모델(210)을 포함할 수 있고, 변환 모델(210)을 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다. 혹은, 인증 장치(200) 대신 다른 장치가 변환 모델(210)을 포함할 수 있다. 이 경우, 다른 장치가 변환 모델(210)을 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있고, 인증 장치(200)는 제1 등록 특징으로부터 변환된 제2 등록 특징을 다른 장치로부터 수신할 수 있다. 따라서, 인증 장치(200)는 제2 등록 특징을 획득하는 것으로 표현될 수 있다.
도 3은 일 실시예에 따른 변환 모델의 동작을 나타낸 도면이다. 도 3을 참조하면, 변환 모델(330)은 특징 추출기(310)에 대응하는 제1 등록 특징을 특징 추출기(320)에 대응하는 제2 등록 특징으로 변환할 수 있다. 특징 추출기(310) 및 특징 추출기(320)는 서로 구분될 수 있다. 예를 들어, 특징 추출기(320)는 특징 추출기(310)가 변경된 것일 수 있다. 일례로, 특징 추출기(320)는 특징 추출기(310)가 업데이트된 버전일 수 있다. 변환 모델(330)은 특징 추출기(310) 및 특징 추출기(320)에 기초하여 생성될 수 있다.
일 실시예에 따르면, 변환 모델(330)은 특징 추출기(310)의 구조 및 특징 추출기(320)의 구조 간의 차이에 대응하는 구조적 요소를 포함할 수 있고, 해당 구조적 요소를 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다. 다른 일 실시예에 따르면, 변환 모델(330)은 특징 추출기(310)의 출력이 입력되면 특징 추출기(320)의 출력을 출력하도록 미리 트레이닝될 수 있다. 이와 같은 트레이닝에 따라, 변환 모델(330)은 제1 등록 특징의 입력에 응답하여 제2 등록 특징을 출력할 수 있다.
도 4는 일 실시예에 따른 변환 모델이 생성되는 프로세스를 나타낸 도면이다. 도 4를 참조하면, 특징 추출기(410)는 복수의 레이어들(415)을 포함하고, 특징 추출기(420)는 복수의 레이어들(415) 및 복수의 레이어들(425)을 포함한다. 예를 들어, 복수의 레이어들(415, 425)은 컨볼루셔널 레이어에 해당할 수 있다. 특징 추출기(410)는 제1 특징 추출기에 대응할 수 있고, 특징 추출기(420)는 제2 특징 추출기에 대응할 수 있다.
예를 들어, 제1 특징 추출기(410)를 제2 특징 추출기(420)로 업데이트하는 과정에서 제2 특징 추출기(420)에 복수의 레이어들(425)이 추가될 수 있다. 제1 특징 추출기(410)의 구조 및 제2 특징 추출기(420)의 구조 간의 차이에 대응하는 구조적 요소는 복수의 레이어들(425)일 수 있다. 따라서, 복수의 레이어들(425)에 기초하여 변환 모델(430)이 생성될 수 있다. 일례로, 복수의 레이어들(425)을 포함하도록 변환 모델(430)이 생성될 수 있다.
제1 특징 추출기(410)는 입력 데이터의 입력에 응답하여 제1 출력 데이터를 출력할 수 있고, 제2 특징 추출기(420)는 입력 데이터의 입력에 응답하여 제2 출력 데이터를 출력할 수 있다. 변환 모델(430)은 제1 출력 데이터의 입력에 응답하여 제2 출력 데이터를 출력할 수 있다. 제1 출력 데이터는 복수의 레이어들(415)에 따른 것이고, 제2 출력 데이터는 복수의 레이어들(415) 및 복수의 레이어들(425)에 따른 것이다. 따라서, 변환 모델(430)의 복수의 레이어들(425)을 통해 제1 출력 데이터는 제2 출력 데이터로 변환될 수 있다.
제1 출력 데이터 및 제2 출력 데이터는 도 3의 제1 등록 특징 및 제2 등록 특징에 대응할 수 있다. 따라서, 변환 모델(430)은 제1 특징 추출기(410)의 구조 및 제2 특징 추출기(420)의 구조 간의 차이에 대응하는 구조적 요소에 기초하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다.
도 5는 다른 일 실시예에 따른 변환 모델이 생성되는 프로세스를 나타낸 도면이다. 도 5를 참조하면, 변환 모델(530)은 동일 입력에 따른 특징 추출기(510) 및 특징 추출기(520) 각각의 출력에 기초하여 트레이닝될 수 있다. 특징 추출기(510)는 제1 특징 추출기에 대응할 수 있고, 특징 추출기(520)는 제2 특징 추출기에 대응할 수 있다. 예를 들어, 특징 추출기(510)는 입력 데이터의 입력에 응답하여 제1 출력 데이터를 출력할 수 있고, 특징 추출기(520)는 동일한 입력 데이터의 입력에 응답하여 제2 출력 데이터를 출력할 수 있다. 변환 모델(530)은 제1 출력 데이터의 입력에 응답하여 제2 출력 데이터를 출력하도록 트레이닝될 수 있다. 제1 출력 데이터 및 제2 출력 데이터는 도 3의 제1 등록 특징 및 제2 등록 특징에 대응할 수 있다. 따라서, 변환 모델(530)은 이와 같은 트레이닝에 기초하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다.
도 6은 일 실시예에 따른 제2 서브 등록 특징들을 나타낸 도면이다. 등록 특징은 서브 등록 특징들을 포함할 수 있다. 서브 등록 특징들은 한 번의 등록 프로세스를 통해 결정되거나, 혹은 복수의 등록 프로세스들을 통해 결정될 수 있다. 예를 들어, 얼굴 인증의 경우 등록 프로세스에서 한 번 촬영된 얼굴 영상, 혹은 복수 회 촬영된 얼굴 영상들을 기초로 얼굴의 각 부위에 대응하여 서브 등록 특징들이 결정될 수 있다.
제1 등록 특징은 제1 서브 등록 특징들을 포함할 수 있고, 인증 장치는 변환 모델을 이용하여 제1 서브 등록 특징들 각각을 제2 서브 등록 특징으로 변환할 수 있다. 변환된 제2 서브 등록 특징들은 제2 등록 특징을 구성할 수 있다. 인증 장치는 오 인식(false acceptance)을 방지하기 위해 제2 서브 등록 특징들 중 적합하지 않은 것이 있는지 결정할 수 있다. 오 인식은 정당한 사용자가 아닌 테스트 사용자를 정당한 사용자로 인식하는 것을 포함할 수 있다. 인증 장치는 제2 서브 등록 특징들 각각의 적합성을 결정할 수 있고, 제2 서브 등록 특징들 각각의 적합성에 기초하여 제2 서브 등록 특징들 중 적어도 일부를 버릴(discard) 수 있다.
도 6의 점들은 제2 서브 등록 특징들에 대응하는 벡터들을 일정한 좌표 평면에 나타낸 것이다. 제2 서브 등록 특징들은 군집을 이루는 제2 서브 등록 특징들(610) 및 아웃라이어(outlier)에 해당하는 제2 서브 등록 특징들(620, 630)로 분류될 수 있다. 인증 장치는 아웃라이어에 해당하는 제2 서브 등록 특징들(620, 630)의 적합도를 낮게 산출할 수 있고, 제2 서브 등록 특징들(620, 630)을 제외하여 제2 등록 특징을 구성할 수 있다.
인증 장치는 제2 서브 등록 특징들의 유사도(similarity)에 기초하여 제2 서브 등록 특징들 중 적어도 일부를 버릴 수 있다. 예를 들어, 인증 장치는 제2 서브 등록 특징들 중 어느 하나 및 제2 서브 등록 특징들의 나머지 간의 유사도들 및 임계치(이하, TH2로 식별됨)에 기초하여, 제2 서브 등록 특징들 중 상기 어느 하나를 버릴 수 있다.
각 제2 서브 등록 특징에 관한 유사도 파라미터는 아래 수학식 1에 따라 결정될 수 있다.
Figure pat00001
수학식 1에서, T(k)는 인덱스 k에 대응하는 제2 서브 등록 특징에 관한 유사도 파라미터를 나타내고, N은 제2 서브 등록 특징들의 총 수를 나타내고, Similarity(bk, bj)는 제2 서브 등록 특징 bk 및 제2 서브 등록 특징 bj 간의 유사도를 나타낸다. 예를 들어, Similarity(bk, bj)는 제2 서브 등록 특징 bk 및 제2 서브 등록 특징 bj 간의 거리(혹은, 차이)에 기초하여 결정될 수 있다. Similarity(bk, bj)는 제2 서브 등록 특징 bk 및 제2 서브 등록 특징 bj 간의 거리가 가까울수록 큰 값을 가질 수 있다. 합산된 Similarity(bk, bj) 값은 N-1로 나누어지므로, 유사도 파라미터는 정규화된 유사도(normalized similarity)로 지칭될 수도 있다.
인증 장치는 수학식 1에 기초하여 각 제2 서브 등록 특징에 관한 유사도 파라미터를 결정할 수 있고, 유사도 파라미터 및 임계치(TH2)에 기초하여 제2 서브 등록 특징들 중 적어도 일부를 버릴 수 있다. 예를 들어, 인증 장치는 임계치(TH2)에 비해 작은 유사도 파라미터를 갖는 제2 서브 등록 특징을 제외할 수 있다.
일 실시예에 따르면, 임계치(TH2)는 인증 프로세스에서 사용되는 임계치(이하, TH1로 식별됨)와 동일한 값을 가질 수 있다. 예를 들어, 인증 장치는 제2 등록 특징 및 제2 입력 특징 간의 유사도 및 임계치(TH1)에 기초하여 인증을 수행할 수 있다. 제2 등록 특징은 변환 모델에 의해 제1 등록 특징으로부터 변환된 것일 수 있고, 제2 입력 특징은 제2 특징 추출기를 이용하여 입력 데이터로부터 추출된 것일 수 있다. 이 것은 하나의 실시예에 불과하며, 임계치(TH2)는 임계치(TH1)와 다른 다양한 값을 가질 수 있다.
변환 프로세스는 다양한 기기에 의해 수행될 수 있다. 도 7 내지 도 10은 다양한 실시예에 따른 변환 동작을 나타낸다. 등록 특징의 변환은 도 7 내지 도 10를 참조하여 설명되는 실시예들 이외에 다른 다양한 실시예들을 통해서도 구현될 수 있다. 도 7의 사용자 단말(700), 도 8의 사용자 단말(820), 도 9의 IoT(internet of things) 단말들(920, 930, 940), 및 도 10의 IoT 단말들(1020,1030, 1040)은 각각 도 1 내지 도 6을 통해 설명된 인증 장치를 포함하거나, 도 1 내지 도 6을 통해 설명된 인증 장치의 기능을 수행할 수 있다.
도 7은 일 실시예에 따른 사용자 단말의 변환 동작을 나타낸 도면이다. 도 7을 참조하면, 사용자 단말(700)은 변환 모델(750)을 포함하고, 변환 모델(750)을 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다. 변환 모델(750)은 사용자 단말(700)에 의해 생성되거나, 혹은 서버와 같이 사용자 단말(700)과 구분되는 다른 장치에 의해 생성될 수 있다. 사용자 단말(700)은 제2 등록 특징에 기초하여 인증 프로세스를 수행할 수 있다.
도 8은 일 실시예에 따른 서버를 통한 변환 동작을 나타낸 도면이다. 도 8을 참조하면, 서버(810)는 변환 모델(815)을 포함하고, 사용자 단말(820)은 서버(810) 내 변환 모델(815)을 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있다. 예를 들어, 사용자 단말(820)은 제1 등록 특징을 서버(810)로 전송할 수 있고, 서버(810)는 변환 모델(815)을 이용하여 제1 등록 특징을 제2 등록 특징으로 변환할 수 있고, 제2 등록 특징을 사용자 단말(820)로 전송할 수 있다. 변환 모델(815)은 서버(810)에 의해 생성될 수 있다. 사용자 단말(820)은 제2 등록 특징에 기초하여 인증 프로세스를 수행할 수 있다.
도 9는 일 실시예에 따른 IoT 시스템에서 허브 디바이스를 통한 변환 동작을 나타낸 도면이다. 도 9를 참조하면, 허브 디바이스(910)는 변환 모델(915)을 포함하고, IoT 단말들(920, 930, 940)은 각각 허브 디바이스(910) 내 변환 모델(915)을 이용하여 기존의 등록 특징을 새로운 등록 특징으로 변환할 수 있다. 예를 들어, IoT 단말들(920, 930, 940)은 기존의 등록 특징들을 허브 디바이스(910)로 전송할 수 있고, 허브 디바이스(910)는 변환 모델(915)을 이용하여 기존의 등록 특징들을 새로운 등록 특징들로 변환할 수 있고, 새로운 등록 특징들을 IoT 단말들(920, 930, 940)로 전송할 수 있다. 변환 모델(915)은 허브 디바이스(910)에 의해 생성되거나, 혹은 서버와 같이 허브 디바이스(910)와 구분되는 다른 장치에 의해 생성될 수 있다. IoT 단말들(920, 930, 940)은 각각 새로운 등록 특징에 기초하여 인증 프로세스를 수행할 수 있다.
도 10은 다른 일 실시예에 따른 IoT 시스템에서 허브 디바이스를 통한 변환 동작을 나타낸 도면이다. 도 10을 참조하면, 허브 디바이스(1010)는 변환 모델(1015)을 포함한다. 변환 모델(1015)은 제1 서브 변환 모델(1016), 제2 서브 변환 모델(1017), 및 제3 서브 변환 모델(1018)을 포함한다. 제1 서브 변환 모델(1016)은 제1 등록 특징을 제2 등록 특징으로 변환할 수 있고, 제2 서브 변환 모델(1017)은 제1 등록 특징을 제3 등록 특징으로 변환할 수 있고, 제3 서브 변환 모델(1018)은 제1 등록 특징을 제4 등록 특징으로 변환할 수 있다.
제1 등록 특징은 허브 디바이스(1010)에 의해 사용되는 제1 특징 추출기에 대응할 수 있고, 제2 등록 특징은 IoT 단말(1020)에 의해 사용되는 제2 특징 추출기에 대응할 수 있고, 제3 등록 특징은 IoT 단말(1030)에 의해 사용되는 제3 특징 추출기에 대응할 수 있고, 제4 등록 특징은 IoT 단말(1040)에 의해 사용되는 제4 특징 추출기에 대응할 수 있다. 실시예에 따라, 제1 특징 추출기는 IoT 시스템의 다른 대표 디바이스에 의해 사용되는 것일 수도 있다. 제1 서브 변환 모델(1016)은 제1 특징 추출기 및 제2 특징 추출기에 기초하여 생성될 수 있고, 제2 서브 변환 모델(1017)은 제1 특징 추출기 및 제3 특징 추출기에 기초하여 생성될 수 있고, 제3 서브 변환 모델(1018)은 제1 특징 추출기 및 제4 특징 추출기에 기초하여 생성될 수 있다. 앞선 정의와는 달리, 도 10에서 제1 등록 특징은 허브 디바이스(1010) 혹은 대표 디바이스를 통해 등록되는 특징으로서 소스 등록 특징으로 지칭될 수 있고, 제2 등록 특징, 제3 등록 특징 및 제4 등록 특징은 각 IoT 단말들(1020, 1030, 1040)에서 사용되는 등록 특징으로서 개별 등록 특징으로 지칭될 수 있다.
허브 디바이스(1010)는 변환 모델(1015)을 이용하여 제1 등록 특징을 제2 등록 특징, 제3 등록 특징 및 제4 등록 특징으로 각각 변환할 수 있고, 제2 등록 특징, 제3 등록 특징 및 제4 등록 특징을 IoT 단말들(1010, 1020, 1030)로 전송할 수 있다. 변환 모델(1015)은 허브 디바이스(1010)에 의해 생성되거나, 혹은 서버와 같이 허브 디바이스(1010)와 구분되는 다른 장치에 의해 생성될 수 있다. IoT 단말들(1010, 1020, 1030)은 제2 등록 특징, 제3 등록 특징 및 제4 등록 특징에 기초하여 인증 프로세스를 수행할 수 있다.
도 11은 일 실시예에 따른 인증 장치의 구성을 나타낸 블록도이다. 도 11을 참조하면, 인증 장치(1100)는 프로세서(1110) 및 메모리(1120)를 포함한다. 인증 장치(1100)는 인증과 관련하여 본 명세서에 기술되거나 또는 도시된 하나 이상의 동작을 수행할 수 있고, 인증 결과를 사용자에게 제공할 수 있다. 메모리(1120)는 프로세서(1110)에 연결되고, 프로세서(1110)에 의해 실행가능한 명령어들, 프로세서(1110)가 연산할 데이터 또는 프로세서(1110)에 의해 처리된 데이터를 저장할 수 있다. 메모리(1120)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.
프로세서(1110)는 도 1 내지 도 10을 참조하여 설명된 하나 이상의 동작을 실행하기 위한 명령어들을 실행할 수 있다. 예를 들어, 프로세서(1110)는 제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하고, 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하고, 제2 등록 특징 및 입력 특징에 기초하여 인증을 수행할 수 있다.
도 12는 일 실시예에 따른 인증 방법을 나타낸 동작 흐름도이다. 도 12를 참조하면, 인증 장치는 단계(1210)에서 1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하고, 단계(1220)에서 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하고, 단계(1230)에서 제2 등록 특징에 포함된 제2 서브 등록 특징들의 적합성에 기초하여 제2 서브 등록 특징들 중 적어도 일부를 버리고, 단계(1240)에서 제2 등록 특징 및 입력 특징에 기초하여 인증을 수행한다. 그 밖에 인증 방법에는 도 1 내지 도 10을 통해 설명된 사항이 적용될 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (20)

  1. 기계 학습 기반의 인증 방법에 있어서,
    제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하는 단계;
    상기 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하는 단계; 및
    상기 제2 등록 특징 및 상기 입력 특징에 기초하여 인증을 수행하는 단계
    를 포함하는 인증 방법.
  2. 제1항에 있어서,
    상기 제2 등록 특징을 획득하는 단계는
    변환 모델을 이용하여 상기 제1 등록 특징을 상기 제2 등록 특징으로 변환하는 단계를 포함하는, 인증 방법.
  3. 제1항에 있어서,
    상기 제2 등록 특징을 획득하는 단계는
    상기 제1 등록 특징으로부터 변환된 상기 제2 등록 특징을 다른 장치로부터 수신하는 단계를 포함하는, 인증 방법.
  4. 제1항에 있어서,
    상기 제2 특징 추출기는 상기 제1 특징 추출기가 업데이트된 버전인, 인증 방법.
  5. 제1항에 있어서,
    상기 제2 등록 특징은 변환 모델에 기초하여 획득되는, 인증 방법.
  6. 제5항에 있어서,
    상기 변환 모델은 상기 제1 특징 추출기의 구조 및 상기 제2 특징 추출기의 구조 간의 차이에 대응하는 구조적 요소를 포함하는, 인증 방법.
  7. 제5항에 있어서,
    상기 제1 특징 추출기는 제1 입력 데이터의 입력에 응답하여 제1 출력 데이터를 출력하고, 상기 제2 특징 추출기는 상기 제1 입력 데이터의 입력에 응답하여 제2 출력 데이터를 출력하고, 상기 변환 모델은 상기 제1 출력 데이터의 입력에 응답하여 상기 제2 출력 데이터를 출력하도록 미리 트레이닝되는, 인증 방법.
  8. 제1항에 있어서,
    상기 제1 등록 특징은 제1 서브 등록 특징들을 포함하고, 상기 제2 등록 특징은 상기 제1 서브 등록 특징들로부터 변환된 제2 서브 등록 특징들을 포함하는, 인증 방법.
  9. 제8항에 있어서,
    상기 제2 서브 등록 특징들의 적합성에 기초하여 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는(discard) 단계를 더 포함하는, 인증 방법.
  10. 제8항에 있어서,
    상기 제2 서브 등록 특징들 간의 유사도에 기초하여 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는(discard) 단계를 더 포함하는, 인증 방법.
  11. 제9항에 있어서,
    상기 제2 서브 등록 특징들 중 적어도 일부를 버리는 단계는
    상기 제2 서브 등록 특징들 중 어느 하나 및 상기 제2 서브 등록 특징들의 나머지 간의 유사도들 및 제2 임계치에 기초하여, 상기 제2 서브 등록 특징들 중 상기 어느 하나를 버리는 단계를 포함하는, 인증 방법.
  12. 제11항에 있어서,
    상기 인증을 수행하는 단계는
    상기 제2 등록 특징 및 상기 입력 특징 간의 유사도 및 제1 임계치에 기초하여 상기 인증을 수행하는 단계를 포함하고,
    상기 제1 임계치는 상기 제2 임계치와 동일한 값을 갖는,
    인증 방법.
  13. 제1항 내지 제12항 중 어느 한 항의 방법을 수행하는 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장매체.
  14. 기계 학습 기반의 인증 장치에 있어서,
    프로세서; 및
    상기 프로세서에서 실행되는 명령어들을 포함하는 메모리
    를 포함하고,
    상기 명령어들이 상기 프로세서에서 실행되면, 상기 프로세서는 제1 특징 추출기에 기초하여 생성된 제1 등록 특징으로부터 변환된 제2 등록 특징을 획득하고, 상기 제1 특징 추출기와 구분되는 제2 특징 추출기를 이용하여 입력 데이터에서 특징을 추출하여 입력 특징을 결정하고, 상기 제2 등록 특징 및 상기 입력 특징에 기초하여 인증을 수행하는, 인증 장치.
  15. 제14항에 있어서,
    상기 제2 등록 특징은 변환 모델에 기초하여 획득되는, 인증 장치.
  16. 제15항에 있어서,
    상기 변환 모델은 상기 제1 특징 추출기의 구조 및 상기 제2 특징 추출기의 구조 간의 차이에 대응하는 구조적 요소를 포함하는, 인증 장치.
  17. 제15항에 있어서,
    상기 제1 특징 추출기는 제1 입력 데이터의 입력에 응답하여 제1 출력 데이터를 출력하고, 상기 제2 특징 추출기는 상기 제1 입력 데이터의 입력에 응답하여 제2 출력 데이터를 출력하고, 상기 변환 모델은 상기 제1 출력 데이터의 입력에 응답하여 상기 제2 출력 데이터를 출력하도록 미리 트레이닝되는, 인증 장치.
  18. 제14항에 있어서,
    상기 제1 등록 특징은 제1 서브 등록 특징들을 포함하고, 상기 제2 등록 특징은 상기 제1 서브 등록 특징들로부터 변환된 제2 서브 등록 특징들을 포함하는, 인증 장치.
  19. 제18항에 있어서,
    상기 프로세서는
    상기 제2 서브 등록 특징들 간의 유사도에 기초하여 상기 제2 서브 등록 특징들 중 적어도 일부를 버리는(discard), 인증 장치.
  20. 제19항에 있어서,
    상기 프로세서는
    상기 제2 서브 등록 특징들 중 어느 하나 및 상기 제2 서브 등록 특징들의 나머지 간의 유사도들 및 제2 임계치에 기초하여, 상기 제2 서브 등록 특징들 중 상기 어느 하나를 버리는, 인증 장치.
KR1020190030147A 2019-03-15 2019-03-15 변환 모델을 이용한 인증 방법 및 장치 KR20200110064A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190030147A KR20200110064A (ko) 2019-03-15 2019-03-15 변환 모델을 이용한 인증 방법 및 장치
US16/811,452 US11688403B2 (en) 2019-03-15 2020-03-06 Authentication method and apparatus with transformation model
US18/317,503 US20230282216A1 (en) 2019-03-15 2023-05-15 Authentication method and apparatus with transformation model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190030147A KR20200110064A (ko) 2019-03-15 2019-03-15 변환 모델을 이용한 인증 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20200110064A true KR20200110064A (ko) 2020-09-23

Family

ID=72423742

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190030147A KR20200110064A (ko) 2019-03-15 2019-03-15 변환 모델을 이용한 인증 방법 및 장치

Country Status (2)

Country Link
US (2) US11688403B2 (ko)
KR (1) KR20200110064A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220087121A (ko) * 2020-12-17 2022-06-24 주식회사 알체라 생체인증 시스템의 관리 방법 및 이를 수행하기 위한 장치
KR20220140240A (ko) * 2021-04-09 2022-10-18 한국과학기술연구원 마스크 착용에 강건한 신원 확인 모델 학습 방법 및 상기 신원 확인 모델을 사용한 신원 확인 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200110064A (ko) * 2019-03-15 2020-09-23 삼성전자주식회사 변환 모델을 이용한 인증 방법 및 장치
US11568173B2 (en) * 2020-06-04 2023-01-31 Dell Products, L.P. Method and apparatus for processing test execution logs to detremine error locations and error types

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4038777B2 (ja) 2006-02-28 2008-01-30 ソニー株式会社 登録装置及び認証装置
JP5418991B2 (ja) * 2008-07-10 2014-02-19 日本電気株式会社 個人認証システム、個人認証方法
JP5271669B2 (ja) 2008-10-31 2013-08-21 株式会社日立製作所 生体認証方法およびシステム
KR101105435B1 (ko) 2009-04-14 2012-01-17 경북대학교 산학협력단 얼굴 검출과 얼굴 인지 방법
JP5382127B2 (ja) 2009-09-11 2014-01-08 富士通株式会社 生体認証装置、生体認証システム、及び生体認証方法
JP5900052B2 (ja) 2012-03-15 2016-04-06 オムロン株式会社 登録判定装置、その制御方法および制御プログラム、並びに電子機器
US8655029B2 (en) * 2012-04-10 2014-02-18 Seiko Epson Corporation Hash-based face recognition system
JP6268960B2 (ja) 2013-11-15 2018-01-31 オムロン株式会社 画像認識装置及び画像認識装置に対するデータ登録方法
US9922237B2 (en) * 2014-02-26 2018-03-20 Hitachi, Ltd. Face authentication system
KR102330322B1 (ko) 2014-09-16 2021-11-24 삼성전자주식회사 영상 특징 추출 방법 및 장치
KR20160061856A (ko) 2014-11-24 2016-06-01 삼성전자주식회사 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
JP6754619B2 (ja) * 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置
KR101988365B1 (ko) 2016-11-08 2019-06-13 한국전자통신연구원 얼굴 인식 시스템 및 그 방법
KR102329765B1 (ko) 2017-03-27 2021-11-23 삼성전자주식회사 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
EP3588364A1 (en) * 2018-06-21 2020-01-01 Onfido Ltd Within document face verification
KR20200110064A (ko) * 2019-03-15 2020-09-23 삼성전자주식회사 변환 모델을 이용한 인증 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220087121A (ko) * 2020-12-17 2022-06-24 주식회사 알체라 생체인증 시스템의 관리 방법 및 이를 수행하기 위한 장치
KR20220140240A (ko) * 2021-04-09 2022-10-18 한국과학기술연구원 마스크 착용에 강건한 신원 확인 모델 학습 방법 및 상기 신원 확인 모델을 사용한 신원 확인 시스템

Also Published As

Publication number Publication date
US20230282216A1 (en) 2023-09-07
US11688403B2 (en) 2023-06-27
US20200293886A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102564855B1 (ko) 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법
KR102564857B1 (ko) 데이터 인식 및 트레이닝 장치 및 방법
KR102608470B1 (ko) 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법
KR102563752B1 (ko) 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들
KR102641116B1 (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
JP7306062B2 (ja) ナレッジ・トランスファー方法、情報処理装置及び記憶媒体
KR102486699B1 (ko) 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
KR102483643B1 (ko) 모델을 학습하는 방법 및 장치 및 상기 뉴럴 네트워크를 이용한 인식 방법 및 장치
KR20200110064A (ko) 변환 모델을 이용한 인증 방법 및 장치
KR102564854B1 (ko) 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법
KR102439938B1 (ko) 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법
KR102374747B1 (ko) 객체를 인식하는 장치 및 방법
KR20200128938A (ko) 모델 학습 방법 및 장치
KR20200129639A (ko) 모델 학습 방법 및 장치
KR102570070B1 (ko) 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치
KR20200048032A (ko) 이미지 생성 장치 및 방법과 생성 모델을 트레이닝시키는 장치 및 방법
KR102570278B1 (ko) 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법
KR20200083119A (ko) 사용자 인증 장치 및 방법
JP2018194828A (ja) マルチビューベクトルの処理方法及び装置
KR20200024602A (ko) 사용자 단말의 학습 방법 및 장치
KR102185979B1 (ko) 동영상에 포함된 객체의 운동 유형을 결정하기 위한 방법 및 장치
KR20170052448A (ko) 인증 방법 및 장치, 및 인식기 학습 방법 및 장치
CN108496174B (zh) 用于面部识别的方法和***
Subarna et al. Real time facial expression recognition based on deep convolutional spatial neural networks
KR102449840B1 (ko) 사용자 적응적인 음성 인식 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal