KR102399025B1 - 개선된 데이터 비교 방법 - Google Patents

개선된 데이터 비교 방법 Download PDF

Info

Publication number
KR102399025B1
KR102399025B1 KR1020150155232A KR20150155232A KR102399025B1 KR 102399025 B1 KR102399025 B1 KR 102399025B1 KR 1020150155232 A KR1020150155232 A KR 1020150155232A KR 20150155232 A KR20150155232 A KR 20150155232A KR 102399025 B1 KR102399025 B1 KR 102399025B1
Authority
KR
South Korea
Prior art keywords
data
vectors
vector
feature
covariance matrix
Prior art date
Application number
KR1020150155232A
Other languages
English (en)
Other versions
KR20160053833A (ko
Inventor
줄리엔 보네
스테판 젠트릭
Original Assignee
아이데미아 아이덴티티 앤드 시큐리티 프랑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이데미아 아이덴티티 앤드 시큐리티 프랑스 filed Critical 아이데미아 아이덴티티 앤드 시큐리티 프랑스
Publication of KR20160053833A publication Critical patent/KR20160053833A/ko
Application granted granted Critical
Publication of KR102399025B1 publication Critical patent/KR102399025B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • G06K9/6215
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 프로세싱 유닛의 프로세싱 수단에 의해 수행되는, 센서 또는 인터페이스로부터 획득된 2개의 데이터들을 비교하기 위한 방법에 관한 것이고, 상기 방법은 비교될 데이터의 2개의 피쳐 벡터들 간의 유사도 함수를 계산하는 것을 포함하고, 데이터의 각각의 피쳐 벡터는 가우시안 변수들의 합으로서 모델링되고, 상기 변수들은:
상기 벡터가 속하는 클래스의 평균,
고유 편차, 및
벡터의 관측 잡음을 포함하고, 각각의 피쳐 벡터는 상기 피쳐 벡터의 관측 잡음에 대한 정보를 포함하는 품질 벡터와 관련되고, 상기 유사도 함수는 상기 피쳐 벡터들 및 관련된 품질 벡터들로부터 계산되는 것을 특징으로 한다.

Description

개선된 데이터 비교 방법{IMPROVED DATA COMPARISON METHOD}
본 발명은 데이터 간의 유사율(rate of similarity)을 결정하기 위해 센서 또는 인터페이스로부터 획득되는 데이터를 비교하기 위한 방법에 관한 것이다. 특히, 본 발명은 기계 학습을 통한 데이터 비교 방법에 관한 것이다.
컴퓨터 비전(또는 디지털 비전)의 분야에서 구현되는 수많은 태스크들은 예컨대, 복합 데이터 간의 유사도 스코어를 획득하기 위해 이미지들과 같은 복잡한 데이터의 비교를 요한다.
예를 들어, 생체 인증(biometric authentication)의 분야에서, 개인들의 얼굴 이미지들은 상기 이미지들이 동일한 사람으로부터 획득된 것인지를 결정하기 위해 비교된다.
이러한 타입의 문제를 다루기 위해, 비교될 데이터로부터 피쳐(feature)들의 추출 - 상기 피쳐들의 추출은 비교될 데이터를 피쳐 벡터(feature vector)들로 변환함 - 을 수행하고 후속적으로, 상기 피쳐 벡터들 간의 유사도 함수(similarity function)를 계산하는 것이 알려져 있다.
계산된 유사도 함수는 일반적으로, 선험적인 미지수인(priori unknown) 파라미터들을 포함한다. 이 파라미터들은 기계 학습에 의해 결정되고 점진적으로 최적화된다. 이렇게 하기 위해, 프로세싱 유닛은 데이터베이스로부터 알려진 데이터의 세트에 대하여 데이터 비교 동작들을 수행하고, 상기 유사도 함수에 의해 제공되는 결과들을 실제 결과와 비교하며, 그리고 이에 따라 더욱 신뢰성있는 결과들에 대해 상기 유사도 함수의 파라미터들을 최적화한다.
예컨대, 참고문헌(저자 D. Chen, X. Cao,, L. Wang, F. Wen 및 J. Sun, Bayesian Face Revisited: A Joint Formulation, ECCV, 2012)으로부터, 데이터 간의 유사도 함수에 대한 학습 방법이 알려져 있는 바, 상기 데이터는 두 개의 독립 가우시안 변수들 즉, 하나의 데이터(datum)가 속하는 클래스의 평균(mean) 및 상기 평균에 대한 상기 데이터의 분산(variation)의 합(summation)에 의해 모델링된다.
예를 들어, 만약 데이터가 얼굴의 이미지들이면, 클래스는 대상(subject)의 아이덴티티(identity)에 대응하고, 그러므로, 클래스의 평균에 대한 분산은 대상의 평균 얼굴 이미지와 서로 다른 상황들 하에서 취해진 이미지 간에 발생할 수 있는 모든 변화들에 대응하는 바, 서로 다른 상황들은 다음과 같다.
- 조명, 이미지 상의 그림자들
- 이미지에서 얼굴의 포즈
- 표정
- 국부적인 블러(local blur), 등.
그러나, 기계 학습으로부터 비롯되는 비교의 성능 레벨의 개선은 변화하는 품질의 데이터가 데이터베이스에서 고려된다는 사실에 의해 제한된다. 그 결과, 결정된 유사도 함수는 비교의 악화된 성능을 보이며, 따라서 비교의 악화된 품질을 보인다. 그러므로, 제안된 비교 방법은 전적으로 신뢰성있는 것은 아니다.
본 발명의 목적은 배경 기술과 비교하여 개선된 성능을 가지는 데이터 비교 방법을 제안하는 것이다.
이에 관하여, 본 발명의 대상은 프로세싱 유닛의 프로세싱 수단에 의해 수행되는, 센서 또는 인터페이스로부터 획득된 두 개의 컴퓨터 데이터 아이템들을 비교하기 위한 방법이며, 상기 방법은 비교될 데이터의 두 개의 피쳐 벡터들 사이의 유사도 함수의 계산을 포함하고, 상기 방법에 있어서,
데이터의 각각의 피쳐 벡터는 가우시안 변수들의 합으로서 모델링되며, 상기 변수들은,
- 벡터가 속하는 클래스의 평균,
- 고유 편차(intrinsic deviation), 그리고
- 벡터의 관측 잡음를 포함하고,
각각의 피쳐 벡터는 상기 피쳐 벡터의 관측 잡음에 관한 정보를 포함하는 품질 벡터와 관련되는 것을 특징으로 하며,
그리고 상기 유사도 함수는 상기 피쳐 벡터들 및 관련 품질 벡터들로부터 계산되는 것을 특징으로 한다.
장점적으로 하지만 선택에 따라(optionally), 본 발명의 방법은 다음의 특징들 중 적어도 하나를 더 포함할 수 있다.
- 상기 유사도 함수는 하나의 동일한 클래스에 속하는 벡터들을 갖는 피쳐 벡터들의 확률 밀도
Figure 112015107885122-pat00001
와 두 개의 서로 다른 클래스들에 속하는 벡터들을 갖는 피쳐 벡터들의 확률 밀도
Figure 112015107885122-pat00002
와의 사이의 비율(ratio)의 로그값(logarithm)이다.
- 상기 유사도 함수는 또한, 피쳐 벡터들의 컴포넌트들의 공분산 행렬들(covariance matrices)의 함수로서 계산되고, 각각의 피쳐 벡터의 관측 잡음의 공분산 행렬은 관련 품질 벡터의 함수로서 획득된다.
- 상기 방법은 또한, 벡터들이 속하는 클래스들의 평균들의 공분산 행렬들 및 상기 클래스 평균들에 대한 벡터 편차들(vector deviations)을 결정하기 위한 학습 알고리즘의 구현을 포함한다.
- 상기 학습 알고리즘은 예측-최대화(expectation-maximization) 타입의 알고리즘이다.
- 상기 유사도 함수는 다음의 공식에 의해 주어진다.
Figure 112015107885122-pat00003
여기서,
Figure 112015107885122-pat00004
여기서,
Figure 112015107885122-pat00005
는 클래스들의 평균들의 공분산 행렬(클래스간(inter-class) 공분산 행렬)이고,
Figure 112015107885122-pat00006
는 평균에 대한 편차들의 공분산 행렬(클래스내(intra-class) 공분산 행렬)이고, 그리고
Figure 112015107885122-pat00007
Figure 112015107885122-pat00008
는 각각 벡터들 x 및 y의 관측 잡음들의 공분산 행렬들이다.
- 센서들 또는 인터페이스들로부터 도출되는 컴퓨터 데이터는 물리적 객체들 또는 물리적 크기들을 표시하는 데이터이다.
- 센서들 또는 인터페이스들로부터 도출되는 컴퓨터 데이터는 이미지들이고, 피쳐 벡터들은 이미지들에 적어도 하나의 필터를 적용함으로써 획득된다.
- 품질 벡터의 컴포넌트들은 피쳐 벡터를 형성하는 데이터의 타입 및 피쳐들의 타입에 따라 생성된다.
- 방법은 또한, 데이터가 공통 클래스에 속하는지를 결정하기 위한 임계(threshold)와의 계산된 유사도 함수의 결과의 비교를 포함한다.
본 발명의 추가적인 대상은 프로세싱 유닛의 프로세싱 수단에 의해 실행될 때 이전의 설명에 따른 방법을 구현하도록 하는 코드 명령어들을 포함하는 컴퓨터 프로그램 물이다.
본 발명의 추가적인 대상은 시스템이며, 상기 시스템은,
- 소위 복수의 라벨링된 데이터를 포함하는 데이터베이스와,
- 데이터 취득 유닛과, 그리고
- 프로세싱 유닛을 포함하고, 상기 프로세싱 유닛은 두 개의 데이터 아이템들로부터 두 개의 피쳐 벡터들 및 두 개의 관련 품질 벡터들을 구성하도록 된 프로세싱 수단을 포함하고, 상기 프로세싱 유닛은 또한, 이전의 설명에 따른 비교 방법을 구현함으로써 데이터를 비교하도록 되어 있다.
상기 제안된 방법은 데이터 간의 유사도 함수를 계산할 때 데이터 품질이 고려될 수 있게 한다. 이는 양호한 품질의 데이터와 더욱 불확실한 데이터 간에 가변적인 가중을 이용하는 것을 가능하게 한다.
예를 들어, 본 발명의 방법이 이미지들의 비교에 적용될 때, 이미지의 그림자 또는 블러 영역들은 선명하게 보이고 분명하게 구별되는 영역들만큼의 가중으로 유사도 함수에 의해 고려되지 않는다.
그럼으로써, 데이터 비교의 증가된 성능이 획득된다.
추가적으로, 기계 학습은 유사도 함수 파라미터들의 최적화를 가능하게 하고, 따라서 비교 방법의 개선된 성능을 가능하게 한다.
본 발명의 다른 특징들, 목적들 및 장점들이, 단지 예시를 위해 주어지고 첨부 도면들과 연계하여 읽혀질 다음의 비한정적인 설명으로부터 분명해질 것이다.
도 1은 비교 방법을 구현하도록 된 시스템의 예를 도시한다.
도 2는 본 발명의 하나의 실시예에 따른 데이터 비교 방법의 주요 단계들을 도시한다.
도 1을 참조하면, 하기에 기술되는 컴퓨터 데이터 비교 방법을 구현하기 위해 프로세싱 수단(11)을 포함하는 프로세싱 유닛(10)을 포함하는 시스템(1)이 예시된다.
상기 프로세싱 유닛(10)은 예컨대 집적 회로일 수 있고, 상기 프로세싱 수단은 프로세서일 수 있다.
장점적으로, 시스템(1)은 선택에 따라, 하기에 기술되는 바와 같이 기계 학습을 수행하기 위해 프로세싱 유닛(10)에 의해 이용되는 복수의 데이터를 메모리에 저장하는 원격 데이터베이스(20)를 더 포함한다.
마지막으로, 시스템(1)은 데이터 취득 유닛(30)을 포함하거나 또는 데이터 취득 유닛(30)이 시스템과는 독립적인 경우, 상기 시스템은 이러한 유닛과 통신하도록 된 인터페이스(미도시)를 포함한다. 이러한 방식으로, 시스템(1)은 하기에 기술되는 방법을 이용하여 특히, 데이터 b의 비교를 위해 상기 데이터 b를 수신 및 프로세스할 수 있다.
하기에 기술되는 방법에서 비교될 데이터의 타입에 따라, 상기 데이터 취득 유닛은 어떤 타입으로든 이루어질 수 있는 바, 예컨대, 광학 센서(포토그래픽 카메라, 비디오 카메라, 스캐너), 음향 센서, 지문 센서, 움직임 센서(movement sensor), 등으로 이루어질 수 있다. 상기 데이터 취득 유닛은 또한, 텍스트, 그림, 등과 같은 오퍼레이터에 의해 입력되는 데이터를 기록하도록 하는 사람과 기계간의 인터페이스(Man-Machine interface)(키패드, 터치-스크린 인터페이스를 구비한 태블릿)일 수 있다.
컴퓨터 데이터 b는 취득 유닛(30)에 의해 획득되며, 그러므로 센서 또는 인터페이스, 예컨대 사람과 기계간의 인터페이스로부터 도출된다. 컴퓨터 데이터 b는 물리적 객체, 예컨대 이미지, 스케매틱(schematic), 기록, 설명을 표시하는 데이터 또는 물리적(전기적, 기계적, 열적, 음향적, 등등) 크기를 표시하는 데이터, 예컨대 센서에 의해 기록된 데이터일 수 있다.
프로세싱 유닛의 프로세싱 수단(11)은 장점적으로는, 적합한 프로그램을 실행함으로써 하기에 기술되는 데이터 비교 방법을 수행하도록 구성된다.
또한 이 방법을 구현하기 위해, 프로세싱 수단들(11)은 - 데이터 취득 장치(30)에 의해 전달된 컴퓨터 입력 데이터 b로부터 - 데이터와 연관된 피쳐 벡터(feature vector) x 및 상기 피쳐 벡터와 연관된 데이터의 품질 벡터(quality vector) qx를 생성하기 위해 피쳐들의 추출을 생성하도록 구성된 피쳐 추출 모듈(12)을 장점적으로 포함한다.
품질 벡터 qx는 피쳐 벡터와 동일한 사이즈의 벡터이고, 그것의 각 구성요소는 피쳐 벡터 x의 대응하는 구성요소에 포함된 정보의 품질을 표시한다. 대안적으로, 품질 벡터 qx는 임의의 사이즈일 수 있다. 품질 벡터의 생성은 데이터 b의 타입에 의존한다.
예를 들면, 피쳐 추출은 데이터 b에 이 목적을 위해 구성된 하나 이상의 필터들을 적용함으로써 수행되며, 선택에 따라 필터링 결과의 프로세싱(예를 들면, 계산된 히스토그램(computed histogram) 등)이 후속한다.
품질 벡터의 생성은 데이터 b의 타입 및 피쳐 벡터 x의 피쳐들의 타입, 즉, 벡터 x의 컴포넌트 구성요소들에 의존한다. 품질 벡터의 각 구성요소는 피쳐 벡터의 특정한 피쳐들과 연관된 고유의 데이터에 관련된 정보를 고려한다.
예를 들면, 신호 프로세싱 또는 이미지 프로세싱 분야에서, 데이터가 이미지이거나 센서에 의해 획득된 대표적인 신호의 취득인 경우, 데이터의 주파수 표현(예를 들면, 푸리에 변환) 또는 공간 주파수 표현(예를 들면, 웨이블릿 변환(wavelet transform)을 피쳐 벡터 x로서 사용하는 것은 빈번하다. 그 후 피쳐 벡터의 각 컴포넌트는 일부 주파수 대역들에만 의존한다.
상기 경우들에서, 데이터의 높은 주파수 컴포넌트들은 낮은 주파수 컴포넌트들에 비해 더 차별적일 뿐만 아니라 잡음(noise)의 존재 또는 신호 해상도(signal resolution)의 부족과 같은 현상에 더 민감하다고 판명된다.
데이터에서 잡음의 양은 데이터가 센서에 의해 획득된 신호인 경우 그것의 에너지 스펙트럼을, 또는 데이터가 이미지인 경우 그것의 고유 해상도를 분석함으로써 결정된다. 예를 들면, 펜닝(Pfenning) 및 커그너(Kirchner)의 논문은 이미지의 해상도의 결정으로 알려져 있다: 《Spectral Methods to Determine the Exact Scaling Factor of Resampled Digital Images》, ISCCP, 2012.
그 후 피쳐 벡터 x 및 데이터의 고유 품질의 함수로서 생성된 품질 벡터 qx는 다음과 같이 구성된다:
- 고품질은 데이터의 낮은 주파수 컴포넌트들에 민감한 피쳐 벡터의 컴포넌트들에 기인한다.
- 고품질은 데이터의 높은 주파수 컴포넌트들에 민감하고 낮은 잡음 레벨 및/또는 높은 해상도를 가지는 피쳐 벡터의 컴포넌트들에 기인한다.
- 저품질은 높은 주파수 컴포넌트들에 민감하고 높은 잡음 레벨 및/또는 낮은 해상도를 가지는 피쳐 벡터의 컴포넌트들에 기인한다.
잡음 레벨 또는 해상도에 대한 기인된 품질 값들 및 임계치들은 검증 기반의 비교 방법의 성능을 최적화하기 위해 실험적으로 결정된다.
다른 예에 따르면, 데이터는 얼굴 이미지이다.
이 예에 따르면, 피쳐 벡터는 첸(Chen) 등의 논문, 《Blessing of Dimensionality: High-dimensional Feature and Its Efficient Compression for Face Verification》, VCPR, 2013에 보여진 바와 같이 얼굴의 특정 시맨틱 포인트들(semantic points)의 부근에서 추출된 국부적 기술어들(local descriptors)을 결부(concatenating)시킴으로써 획득된다(예를 들면, 코의 끝, 입의 가장자리, 눈 등).
이 표현은 기술어들을 일정한 그리드(regular grid)에서 추출하는 방법들보다 포즈의 변화들에 대해 더 강건한(robust) 이점을 가진다.
그러나 이들 피쳐들의 추출은 이들 포인트들을 검출하는 단계를 포함한다. 이 단계 내내 검출기(detector)는 이미지에서 얼굴의 각 포인트의 가장 개연성 있는 위치를 제공하는 것 뿐만 아니라 검출 정확성(detection accuracy)의 신뢰도 레벨(confidence level)을 해석(translating)하는 정보를 제공하는데 사용된다.
측정은, 랍(Rapp) 등의 논문 《Multiple kernel learning SVM and statistical validation for facial landmark detection》, Automatic Face & Gesture Recognition, 2011,으로부터 SVM들(Support Vector Machines)에 기초하여 검출기를 사용할 때 분류 평면(separating hyperplane)에 대한 거리를 측정하는 예로 알려져 있다.
다른 예는 단톤(Dantone)등의 논문, 《Real-time Facial Feature Detection using Conditional Regression Forests》, CVPR, 2012에서 주어지며, 신뢰도의 측정은 회귀 트리(regression tree)를 사용하는 검출기에 의해 결정된 투표들의 수에 의해 주어진다.
이 신뢰도 정보는 거기에 대응하는 얼굴의 시맨틱 포인트(semantic point)의 검출의 품질을 귀착(attributing)시킴으로써 피쳐 벡터의 각 컴포넌트들과 연관된 품질을 생성하는데 사용된다.
추가적 예에 따르면, 예를 들면, 출원 번호 N°FR 2 998 402에 기술된 방법을 적용함으로써 얼굴 이미지가 얼굴의 정면 이미지가 아닌 이미지로부터 생성된 얼굴 이미지인 경우, 품질 벡터는 신뢰도 색인이며, 이 색인은 원본 이미지에서 발생하는 얼굴의 포인트들에 대해 상대적으로 높아지며 원본 이미지에서 발생하지 않는 얼굴의 포인트들에 대해 상대적으로 낮아지고, 외삽법(extrapolation)을 통해 재구성된다.
더 일반적으로, 데이터가 이미지인 경우 품질 벡터는 블러(blur)의 국부적 측정에 의해 획득된다.
대안적으로, 피쳐 추출 모듈은 취득 유닛으로 하여금 프로세싱 수단(11)과 피쳐 벡터 및 연관된 품질 벡터를 직접적으로 통신하게 하는 취득 유닛(30)의 모듈이다.
데이터 비교 방법
도 2를 참조하면, 이제 프로세싱 유닛의 프로세싱 수단들(11)에 의해 구현되는 데이터 비교 방법이 주어진다.
이 방법은 각각의 데이터로부터 획득된 동일한 사이즈의 2개의 피쳐 벡터들 x 와 y와의 사이의 유사도 함수(similarity function)(100)를 계산함으로써 및 데이터베이스에서 유사도 함수의 파라미터들의 기계 학습(machine learning)(200)을 수행함으로써 2개의 데이터 아이템들의 비교를 포함한다.
이 방법에서 각 피쳐 벡터는 3개의 독립적 가우시안 변수들(Gaussian variables)의 합으로서 모델링된다:
χ=μ+ω+ε
여기서:
- μ는 벡터 x가 속하는 클래스의 평균이며;
- ω는 상기 평균으로부터의 벡터 x의 고유의 편차이며; 그리고
- ε는 관측 잡음이다.
클래스는 유사하다고 간주되는 피쳐 벡터들의 세트이다. 2개의 피쳐 벡터들은 만약 유사도 함수에 의한 그들의 비교가 임계치보다 높은 결과를 생성하면 유사하다고 간주되며, 이 임계치는 경험적으로 결정된다.
예를 들면, 만약 데이터가 얼굴 이미지들인 경우, 클래스는 개인에 장점적으로 대응한다. 수개의 데이터 중 2개의 피쳐 벡터들을 비교함으로써, 만약 데이터가 동일한 개인으로부터 유래된 경우, 데이터는 유사하다고 간주진다.
이전에 기술된 모델로 되돌아가면, 1개의 동일한 클래스에 속하는 2개의 피쳐 벡터들은 따라서 동일한 μ값을 가지지만, 서로 다른 ω 및 ε값들을 가진다.
만약 피쳐 벡터들이 서로 다른 클래스들에 속하는 경우, 3개의 변수들은 완전히 독립적이다.
이들 3개의 변수들은 0을 중심으로 하는 다변수 정규 분포를 따른다고 간주되며, 각각의 공분산 행렬들(covariance matrixes)은 Sμ, Sω 및 Sε로 작성된다. Sμ는 클래스 간(inter-class) 공분산 행렬, Sω는 클래스 내(intra-class) 공분산 행렬, Sε은 관측 잡음 공분산 행렬이라 불린다.
Sμ, Sω는 모든 피쳐 벡터들에 공통되는 미지수들(unknowns)이다.
반면, Sε은 피쳐 추출 모듈에 의해, 그것이 피쳐 벡터와 연관된 품질 벡터로부터 획득됨에 따라 기지수(known)이다. 이는 연관된 피쳐 벡터와 동일한 사이즈이다.
예를 들면, 관측 잡음이 다른 것과 상관되지 않는다고 가정하면, Sε은 대각 행렬(diagonal matrix)에 의해 잘 근사화된다.
이 대각 행렬의 구성요소들은 이 품질 벡터로부터 획득되며, 그 후 품질 벡터의 컴포넌트들의 분산(variance)에 대응한다.
예를 들면, 분산은 품질 벡터 qx의 컴포넌트들에 f(qx)=1/eaqx +b 타입의 시그모이드 함수(sigmoid function)를 적용함으로써 부여된다. 계수들 a 및 b는 결정된 분산 레벨을 품질 레벨과 연관시키기 위해 선택된다.
예를 들면, 고품질은 0의 분산과 연관되며, 매우 낮은 품질은 최대 분산과 연관되며, 중간 분산들은 중간 품질들에 대응한다.
일반적으로, 품질 벡터 및 피쳐 벡터가 데이터 타입에 의존함에 따라, 품질 벡터를 잡음 공분산 행렬로 변환하는 전달 함수(transfer function)는 연관된 품질 벡터 및 피쳐 벡터에 특정된다.
이하에서, Sεx는 품질 벡터 qx로부터 획득된 벡터 x의 배경 잡음의 공분산 행렬을 나타내며, Sεy는 품질 벡터 qy로부터 획득된 벡터 y의 배경 잡음의 공분산 행렬이다.
Hsim은 2개의 피쳐 벡터들이 1개의 동일한 클래스에 속한다는 즉 대응하는 데이터가 유사하다고 간주되는 가설을 표시하며, Hdis는 피쳐 벡터들이 서로 다른 클래스들에 속하고 대응하는 데이터가 비유사하다고 간주되는 역가설을 표시한다.
x 및 y의 각각의 배경 잡음의 공분산 행렬들을 알고 있고 가설 Hsim을 고려하는, x 및 y를 생성하는 결합 확률(joint probability)은
Figure 112015107885122-pat00009
로 작성된다. 이 확률은 중심은 0이고 공분산 행렬은 Ssim:
Figure 112015107885122-pat00010
인 가우시안 법칙(Gaussian law)을 따른다.
x 및 y의 각각의 배경 잡음의 공분산 행렬들을 알고 있고 가설 Hdis을 고려하는, x 및 y를 생성하는 결합 확률은
Figure 112015107885122-pat00011
로 작성된다. 이 확률은 중심이 0이고 공분산 행렬은 Sdis:
Figure 112015107885122-pat00012
인 가우시안 법칙을 따른다.
행렬들 Ssim 및 Sdis는 다음과 같이 정의된다.
Figure 112015107885122-pat00013
Figure 112015107885122-pat00014
어느 정도 그 자체로 알려진
Figure 112015107885122-pat00015
의 확률 밀도는
Figure 112015107885122-pat00016
이며, |Ssim| 는 Ssim의 행렬식(deteminant)이며, N은 피쳐 벡터의 차원(dimension)이다.
동일한 표현이 필요한 변경을 가하여 확률 밀도
Figure 112015107885122-pat00017
에 적용된다.
벡터들 x 및 y에 대응하는 2개의 데이터를 비교하기 위한 계산된 유사도 함수는 1개의 동일한 클래스에 속하는 벡터들을 가지는 피쳐 벡터들의 확률 밀도와 2개의 서로 다른 클래스들에 속하는 벡터들을 가지는 피쳐 벡터들의 확률 밀도와의 사이의 비율의 로그값(logarithm)이다.
그러므로 유사도 함수는 다음과 같이 표현된다:
Figure 112015107885122-pat00018
위에 표시된 확률 밀도의 표현을 이용할 때, 그리고 행렬들
Figure 112015107885122-pat00019
Figure 112015107885122-pat00020
를 인버팅하기 위해 블럭 인버젼 수식을 이용하여 상기 함수를 전개할 때, 획득되는 유사도 함수는 다음과 같이 표현된다.
Figure 112015107885122-pat00021
이 표현에서, A, B 및 C는
Figure 112015107885122-pat00022
의 블럭 인버젼의 결과인 항들이고 각각 다음과 같이 표현된다.
Figure 112015107885122-pat00023
상기 상수는 x, y,
Figure 112015107885122-pat00024
또는
Figure 112015107885122-pat00025
에 종속하지 않고 그러므로 무시될 수 있다.
그러므로 상기 유사도 함수 LR은 x 및 y의 관측 잡음들의 공분산 행렬들
Figure 112015107885122-pat00026
Figure 112015107885122-pat00027
을 고려하고, 그리고 그러므로 각 피쳐 벡터와 관련된 품질 벡터를 고려한다는 것이 발견된다.
비교의 결과는 그러므로 불량하거나 불확실한 품질을 갖는 것으로 간주되는 피쳐에 대한 낮은 가중치 부여 및 양호한 품질 또는 높은 신뢰도를 갖는 피쳐에 대한 높은 가중치 부여를 허용하는 피쳐 벡터와 관련된 품질 - 또는 신뢰도-에 의해 영향을 받는다.
본 명세서의 나머지에서 볼 수 있는 바와 같이, 이 유사도 함수는 또한 기계 학습에 의해 파라미터화된다. 피쳐 벡터와 관련된 품질을 고려함으로써, 불량한 품질의 데이터의 상기 함수의 파라미터화에 대한 영향이 최소화될 수 있다.
상기 비교 방법은 그러므로 더 신뢰성이 있다.
도 2로 돌아가면, 그 후에 단계(110)에서 비교의 결과는 결정된 임계치와 비교된다.
이 임계치는 (하나의 동일한 클래스에 속하거나 속하지 않는다고 알려진)데이터베이스의 알려진 피쳐 벡터들에 대한 다수의 비교들을 적용함으로써 경험적으로 장점적으로 결정된다.
만약 x 및 y에 대해 적용되는 상기 유사도 함수의 결과가 결정된 임계치보다 높다면, 대응하는 데이터는 유사한 것으로 간주된다. 그렇지 않으면 상기 데이터는 비유사한 것으로 간주된다.
이전에 표시된 상기 유사도 함수 LR의 표현은 이 함수가 알려지지 않은 공분산 행렬들
Figure 112015107885122-pat00028
에 의해 파라미터화됨을 보여준다.
그러므로 상기 방법은 상기 행렬들을 기계 학습에 의해 결정하는 단계(200)를 포함한다.
상기 방법은 예측-최대화(EM; expectation-maximization) 알고리즘을 이용해서 장점적으로 수행되고 데이터베이스에 저장된 데이터의 세트에 수행되며, 이 데이터는 <<라벨링됨(labelled)>>, 즉, 데이터가 속하는 각각의 클래스들이 알려져 있다고 불린다.
Figure 112015107885122-pat00029
개의 피쳐 벡터들이 속하는 클래스는 c로 표기되고,
Figure 112015107885122-pat00030
는 클래스의 피쳐 벡터들의 결부(concatenation)를 표기하고
Figure 112015107885122-pat00031
는 이들 각각의 관측 잡음의 공분산 행렬들을 표기한다.
잠재 변수들(latent variables)
Figure 112015107885122-pat00032
은 각각의 클래스 c에 대해 정의되며,
Figure 112015107885122-pat00033
가 클래스 평균이고 그러므로 클래스 평균은 하나만 존재하며, 각각의
Figure 112015107885122-pat00034
는 클래스의 피쳐 벡터의 이 평균으로부터의 편차이다(그러므로 편차는 피쳐 벡터당 하나씩 존재함).
EM 알고리즘에 의해 추정될 파라미터는
Figure 112015107885122-pat00035
이다.
예측-최대화 알고리즘은 잠재 변수들
Figure 112015107885122-pat00036
의 분포의 파라미터들을 추정하기 위한 제1 단계(210)를 포함하는 반복적 알고리즘이며, 여기서
Figure 112015107885122-pat00037
는 파라미터들의 이전의 추정이다.
상기 방법의 초기화로,
Figure 112015107885122-pat00038
는 상기 파라미터들의 제1의 경험적 추정이다.
파라미터
Figure 112015107885122-pat00039
의 초기화는 각 클래스 c에 대해서 상기 클래스의 경험적 평균을 계산하고 그 후에 상기 평균값들의 공분산 행렬을 결정함으로써 장점적으로 획득된다.
파라미터
Figure 112015107885122-pat00040
의 초기화는 각 클래스에 대해서 상기 피쳐 벡터들의 공분산 행렬을 계산하고 - 상기 공분산 행렬에서 상기 클래스 평균이 차감됨(예를 들어, 상기 평균에 대한 피쳐 벡터 차이들)- 그 후에 모든 클래스들에 대한 평균 공분산 행렬을 결정함으로써 획득될 수 있다.
상기 알고리즘은 다음으로
Figure 112015107885122-pat00041
에 후속하는, 잠재 변수
Figure 112015107885122-pat00042
에 대한 예측된 로그 라이클리우드(logarithmic likelihood)의 최대화 단계(220)를 포함한다.
Figure 112015107885122-pat00043
이 단계를 적절히 수행하고 계산 시간을 최소화하기 위해서, 다음과 같이
Figure 112015107885122-pat00044
를 인수분해함으로써, 잠재 변수들
Figure 112015107885122-pat00045
Figure 112015107885122-pat00046
와 조건적으로 독립적이라는 사실이 고려된다.
Figure 112015107885122-pat00047
단계(220)에서의
Figure 112015107885122-pat00048
의 최적화는 파라미터들
Figure 112015107885122-pat00049
Figure 112015107885122-pat00050
의 확률 분포들을 계산하는 것을 필요로 한다. 이 계산들은 아래에 상세히 설명된다.
Figure 112015107885122-pat00051
여기서,
Figure 112015107885122-pat00052
이며, 그리고,
Figure 112015107885122-pat00053
이다.
방정식 (1)과
Figure 112015107885122-pat00054
가 확률들의 분포라는 사실을 조합하면
Figure 112015107885122-pat00055
이다.
추가적으로,
Figure 112015107885122-pat00056
이고, 여기서,
Figure 112015107885122-pat00057
이며, 여기서,
Figure 112015107885122-pat00058
이고,
Figure 112015107885122-pat00059
이다.
단계(220)는 그러므로
Figure 112015107885122-pat00060
Figure 112015107885122-pat00061
에 관한 최대화를 수반한다.
Figure 112015107885122-pat00062
이는 기울기들(gradients)을 계산하고
Figure 112015107885122-pat00063
Figure 112015107885122-pat00064
의 해를 구함으로써 획득된다.
Figure 112015107885122-pat00065
Figure 112015107885122-pat00066
추가적으로,
Figure 112015107885122-pat00067
예측-최대화 알고리즘은 단계(210)에서 변수들
Figure 112015107885122-pat00068
Figure 112015107885122-pat00069
을 연속적으로 계산하고 값들
Figure 112015107885122-pat00070
Figure 112015107885122-pat00071
을 적용시키고 그러므로
Figure 112015107885122-pat00072
를 단계(220)에서 수렴할 때까지 적용함으로써 반복적으로 수행된다. 단계(210)의 각각의 새로운 반복에서, 이전 단계(220)에서 획득된
Figure 112015107885122-pat00073
의 새로운 값이 재사용된다.

Claims (11)

  1. 프로세싱 유닛(10)의 프로세싱 수단(11)에 의해 구현되는, 센서 또는 인터페이스(30)로부터 획득된 2개의 데이터들의 비교 방법으로서,
    상기 방법은 비교될 상기 데이터들의 2개의 피쳐 벡터들(feature vectors) (x,y)간의 유사도 함수(LR)의 계산(100)을 포함하고,
    데이터의 각각의 피쳐 벡터가 3개의 독립적인 가우시안 변수들(Gaussian variables)의 합인
    Figure 112021144702634-pat00074
    로서 모델링되고, 상기 변수들은:
    상기 벡터가 속하는 클래스의 평균
    Figure 112021144702634-pat00075
    ,
    고유 편차(intrinsic deviation)
    Figure 112021144702634-pat00076
    ,
    상기 벡터의 관측 잡음(observation noise)
    Figure 112021144702634-pat00077
    이며,
    각 피쳐 벡터 x는 상기 피쳐 벡터의 관측 잡음에 대한 정보를 포함하는 품질 벡터(quality vector) qx와 관련되고, 상기 품질 벡터의 컴포넌트들은 데이터의 타입 및 상기 피쳐 벡터를 형성하는 피쳐들의 타입의 함수로서 생성되고,
    상기 유사도 함수(LR)는 상기 피쳐 벡터들의 컴포넌트들의 공분산 행렬들(covariance matrixes)
    Figure 112021144702634-pat00078
    Figure 112021144702634-pat00079
    의 함수로서 피쳐 벡터들(x, y) 및 관련된 품질 벡터들(qx, qy)로부터 계산되고, 각각의 피쳐 벡터의 상기 관측 잡음 공분산 행렬
    Figure 112021144702634-pat00080
    은 관련된 품질 벡터의 함수로서 획득되는 것을 특징으로 하는 비교 방법.
  2. 제 1항에 있어서,
    상기 피쳐 벡터들의 컴포넌트들의 공분산 행렬들은 각각 상기 벡터들이 속하는 클래스들의 평균들의 공분산 행렬(클래스 간 공분산 행렬(inter-class covariance matrix)
    Figure 112015107885122-pat00081
    이라고 불림) 및 클래스 평균들로부터의 벡터 편차들의 공분산 행렬(클래스 내 공분산 행렬(intra-class covariance matrix)
    Figure 112015107885122-pat00082
    이라고 불림)인 공분산 행렬들을 포함하는 것을 특징으로 하는 비교 방법.
  3. 제1항에 있어서,
    상기 유사도 함수(LR)는 하나의 동일한 클래스에 속하는 벡터들을 갖는 피쳐 벡터들의 확률 밀도
    Figure 112021144702634-pat00083
    와 2개의 서로 다른 클래스들에 속하는 벡터들을 갖는 피쳐 벡터들의 확률 밀도
    Figure 112021144702634-pat00084
    간의 비율의 로그값(logarithm)인 것을 특징으로 하는 비교 방법.
  4. 제1항에 있어서,
    상기 벡터들이 속하는 클래스들의 평균들의 공분산 행렬(Sμ) 및 상기 벡터들이 속하는 클래스들의 평균들로부터의 상기 벡터들의 편차들의 공분산 행렬 (Sω)을 결정하기 위한 학습 알고리즘의 적용(200)을 더 포함하는 것을 특징으로 하는 비교 방법.
  5. 제 4항에 있어서,
    상기 학습 알고리즘은 예측-최대화 타입(expectation-maximization type)의 알고리즘인 것을 특징으로 하는 비교 방법.
  6. 제1항에 있어서,
    상기 유사도 함수(LR)는
    Figure 112021144702634-pat00087

    라는 수식에 의해 주어지고, 여기서,
    Figure 112021144702634-pat00088

    이며, 여기서
    Figure 112021144702634-pat00089
    는 클래스들의 평균들의 공분산 행렬이고,
    Figure 112021144702634-pat00090
    는 평균으로부터의 편차들의 공분산 행렬이고,
    Figure 112021144702634-pat00091
    Figure 112021144702634-pat00092
    는 각각 벡터들 x 및 y의 관측 잡음의 공분산 행렬들인 것을 특징으로 하는 비교 방법.
  7. 제1항에 있어서,
    상기 센서 또는 인터페이스(30)로부터 획득된 2개의 데이터들은 물리적 객체들 또는 물리적 크기들을 나타내는 데이터인 것을 특징으로 하는 비교 방법.
  8. 제7항에 있어서,
    상기 센서 또는 인터페이스(30)로부터 획득된 2개의 데이터들은 이미지들이고, 상기 피쳐 벡터들은 적어도 하나의 필터를 상기 이미지들에 적용함으로써 획득되는 것을 특징으로 하는 비교 방법.
  9. 제1항에 있어서,
    상기 데이터가 공통된 클래스에 속하는지 여부를 결정하기 위해서, 상기 계산된 유사도 함수(LR)의 결과와 임계치 간의 비교(110)를 더 포함하는 것을 특징으로 하는 비교 방법.
  10. 코드 명령어들을 저장한 컴퓨터 판독가능한 저장매체로서,
    상기 코드 명령어들은 프로세싱 유닛(10)의 프로세싱 수단(11)에 의해 실행될 때, 제1항에 따른 방법을 수행하는 것을 특징으로 하는 컴퓨터 판독가능한 저장매체.
  11. 시스템(1)으로서,
    복수의 소위 라벨링된 데이터(so-called labelled data)를 포함하는 데이터베이스(20)와;
    데이터 취득 유닛(30)과; 그리고
    2개의 피쳐 벡터들 (x,y) 및 2개의 관련된 품질 벡터들 (qx, qy)을 2개의 데이터 아이템들로부터 구성하도록 된 프로세싱 수단(11)을 포함하는 프로세싱 유닛(10)을 포함하고, 상기 프로세싱 유닛은 또한 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현함으로써 상기 데이터를 비교하도록 된 것을 특징으로 하는 시스템(1).
KR1020150155232A 2014-11-05 2015-11-05 개선된 데이터 비교 방법 KR102399025B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1460690 2014-11-05
FR1460690A FR3028064B1 (fr) 2014-11-05 2014-11-05 Procede de comparaison de donnees ameliore

Publications (2)

Publication Number Publication Date
KR20160053833A KR20160053833A (ko) 2016-05-13
KR102399025B1 true KR102399025B1 (ko) 2022-05-17

Family

ID=52737190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150155232A KR102399025B1 (ko) 2014-11-05 2015-11-05 개선된 데이터 비교 방법

Country Status (6)

Country Link
US (1) US10332016B2 (ko)
EP (1) EP3018615B1 (ko)
JP (1) JP6603548B2 (ko)
KR (1) KR102399025B1 (ko)
CN (1) CN105590020B (ko)
FR (1) FR3028064B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
CN106803054B (zh) * 2015-11-26 2019-04-23 腾讯科技(深圳)有限公司 人脸模型矩阵训练方法和装置
US10255703B2 (en) 2015-12-18 2019-04-09 Ebay Inc. Original image generation system
US11120069B2 (en) * 2016-07-21 2021-09-14 International Business Machines Corporation Graph-based online image queries
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
JP6477943B1 (ja) * 2018-02-27 2019-03-06 オムロン株式会社 メタデータ生成装置、メタデータ生成方法及びプログラム
CN109325059A (zh) * 2018-12-03 2019-02-12 枘熠集成电路(上海)有限公司 一种数据比较方法及装置
WO2021125616A1 (ko) * 2019-12-19 2021-06-24 이향룡 Ai의 학습 및 적용을 위한 개체 데이터를 검출하는 방법 및 이의 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846500B1 (ko) 2006-11-08 2008-07-17 삼성전자주식회사 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
KR101254181B1 (ko) 2012-12-13 2013-04-19 위아코퍼레이션 주식회사 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US6782362B1 (en) * 2000-04-27 2004-08-24 Microsoft Corporation Speech recognition method and apparatus utilizing segment models
US8463718B2 (en) * 2000-08-07 2013-06-11 Health Discovery Corporation Support vector machine-based method for analysis of spectral data
KR100445800B1 (ko) * 2001-01-05 2004-08-25 학교법인 인하학원 상관관계를 이용한 유사도 측정의 얼굴 인증 방법
US7171356B2 (en) * 2002-06-28 2007-01-30 Intel Corporation Low-power noise characterization over a distributed speech recognition channel
US8868555B2 (en) * 2006-07-31 2014-10-21 Ricoh Co., Ltd. Computation of a recongnizability score (quality predictor) for image retrieval
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
US8126197B2 (en) * 2007-11-29 2012-02-28 Certifi-Media Inc. Method for image quality assessment using quality vectors
US7885794B2 (en) * 2007-11-30 2011-02-08 Xerox Corporation Object comparison, retrieval, and categorization methods and apparatuses
CN102236788B (zh) * 2010-04-20 2015-09-02 荣科科技股份有限公司 电力电能表图像自动识别方法
CN102354389B (zh) * 2011-09-23 2013-07-31 河海大学 基于视觉显著性的图像零水印算法及图像版权认证方法
US8548497B2 (en) * 2011-12-16 2013-10-01 Microsoft Corporation Indoor localization using commercial frequency-modulated signals
JP2013156680A (ja) * 2012-01-26 2013-08-15 Kumamoto Univ フェーストラッキング方法、フェーストラッカおよび車両
CN102693321A (zh) * 2012-06-04 2012-09-26 常州南京大学高新技术研究院 一种跨媒体间信息分析与检索的方法
JP2013254254A (ja) * 2012-06-05 2013-12-19 Canon Inc 識別装置、その制御方法及びプログラム
CN102880861B (zh) * 2012-09-05 2015-05-27 西安电子科技大学 基于线性预测倒谱系数的高光谱图像分类方法
US20140107521A1 (en) * 2012-10-12 2014-04-17 Case Western Reserve University Functional brain connectivity and background noise as biomarkers for cognitive impairment and epilepsy
FR2998402B1 (fr) 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
EP2924543B1 (en) * 2014-03-24 2019-12-04 Tata Consultancy Services Limited Action based activity determination system and method
CN103886106B (zh) * 2014-04-14 2017-02-22 北京工业大学 一种基于光谱特征保护的遥感图像安全检索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846500B1 (ko) 2006-11-08 2008-07-17 삼성전자주식회사 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
KR101254181B1 (ko) 2012-12-13 2013-04-19 위아코퍼레이션 주식회사 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법

Also Published As

Publication number Publication date
EP3018615A1 (fr) 2016-05-11
US10332016B2 (en) 2019-06-25
KR20160053833A (ko) 2016-05-13
JP2016091566A (ja) 2016-05-23
US20160125308A1 (en) 2016-05-05
FR3028064A1 (fr) 2016-05-06
FR3028064B1 (fr) 2016-11-04
JP6603548B2 (ja) 2019-11-06
CN105590020B (zh) 2021-04-20
CN105590020A (zh) 2016-05-18
EP3018615B1 (fr) 2019-02-27

Similar Documents

Publication Publication Date Title
KR102399025B1 (ko) 개선된 데이터 비교 방법
WO2017024963A1 (zh) 图像识别方法、度量学习方法、图像来源识别方法及装置
EP2907082B1 (en) Using a probabilistic model for detecting an object in visual data
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
US20180352213A1 (en) Learning-based matching for active stereo systems
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
TW201828156A (zh) 圖像識別方法、度量學習方法、圖像來源識別方法及裝置
Eid et al. Development of Iris Security System Using Adaptive Quality-Based Template Fusion
JP6393495B2 (ja) 画像処理装置および物体認識方法
Zerrouki et al. Automatic classification of human body postures based on curvelet transform
US10068127B2 (en) Automatic detection of face and thereby localize the eye region for iris recognition
Bouchemha et al. Multispectral palmprint recognition methodology based on multiscale representation
Upraity et al. Efficient face recognition using morphological operations
Chouhan et al. Comparative analysis of robust iris recognition system using log gabor wavelet and Laplacian of Gaussian filter
Chowhan et al. Evaluation of statistical feature encoding techniques on iris images
JP6453618B2 (ja) 算出装置、方法及びプログラム
Yao et al. Fingerprint quality assessment with multiple segmentation
Hombalimath et al. Image quality assessment for iris recognition
KR102674496B1 (ko) 원격 광용적맥파신호를 이용한 위조 얼굴 판별 방법 및 장치
KR102643593B1 (ko) 수정된 계몽 생성적 적대 신경망을 활용한 사람 인식 방법 및 장치
JP2019121187A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Xiao Using fuzzy adaptive fusion in face detection
Kaushik et al. Building a Face Recognition Technique for Encryption by MATLAB

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant