KR20140074303A - 생체인식 유형의 접근제어시스템에 대한 부정 검출 - Google Patents

생체인식 유형의 접근제어시스템에 대한 부정 검출 Download PDF

Info

Publication number
KR20140074303A
KR20140074303A KR1020147007626A KR20147007626A KR20140074303A KR 20140074303 A KR20140074303 A KR 20140074303A KR 1020147007626 A KR1020147007626 A KR 1020147007626A KR 20147007626 A KR20147007626 A KR 20147007626A KR 20140074303 A KR20140074303 A KR 20140074303A
Authority
KR
South Korea
Prior art keywords
images
individual
face
flatness
score
Prior art date
Application number
KR1020147007626A
Other languages
English (en)
Other versions
KR101436290B1 (ko
Inventor
세바스띠에 브랑그와로
또마 프뒤싸끄
Original Assignee
모르포
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모르포 filed Critical 모르포
Publication of KR20140074303A publication Critical patent/KR20140074303A/ko
Application granted granted Critical
Publication of KR101436290B1 publication Critical patent/KR101436290B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 생체인식을 통한 접근제어시스템의 부정 검출 방법에 관한 것이고, 상기 방법은, 접근제어시스템 정면에서 개개인의 적어도 2곳의 위치, 또는 개개인의 2개의 시각에 따라 개개인 (I)이 접근제어시스템에 제시한 적어도 2개의 얼굴 영상들 (S2)을 취하는 단계, 영상의 얼굴 편평도를 나타내는 점수를 결정하기 위하여 2개의 영상들을 처리하는 단계, 및접근제어시스템에 의한 개개인 식별 처리에 이용하도록 편평도 점수에 따라 개개인의 일부에 대한 임의의 부정을 검출하는 단계로 구성된다.

Description

생체인식 유형의 접근제어시스템에 대한 부정 검출{DETECTION OF FRAUD FOR ACCESS CONTROL SYSTEM OF BIOMETRIC TYPE}
본 발명은 일반적으로 생체인식 및 접근제어시스템에 관한 것이다.
본 발명은 특히 얼굴 영상에 대한 인식 프로세스를 이용하는 (얼굴 인식) 접근제어시스템의 부정 검출 방법 및 시스템에 관한 것이다.
현재 얼굴 인식은 접근제어시스템에 적용되고 대부분 제어시스템에 제시된 개개인의 영상과 데이터베이스 또는 개개인의 보안문서 에 기록된 개개인의 영상과 비교하여 적용된다.
그러나, 현재의 얼굴 인식을 통한 접근제어시스템은 대부분 <첨단>으로 알려진 상이한 유형들의 부정에 취약하다.
이러한 유형의 공격은 접근제어시스템에 접근 인증된 타인의 얼굴 - 또는 얼굴 표현을 제시하는 것이다.
이러한 목적으로, 일반적으로 개개인은 당사자 얼굴을 가리고, 타인 얼굴 사진이 인화된 2차원 가리개 (support)를 제시한다.
이러한 매체는 종이 (단순한 인화 사진), 천 (양호한 품질로 인쇄되는 가리개 천)일 수 있고, 심지어는 예를들면 사진이 올려진 디지털 태블릿일 수 있다.
이런 경우, 접근제어시스템은 그 사진에 대하여 식별처리를 실행하고, 임의의 부정이 발견되지 않으면 개개인의 접근을 인증한다.
또한, 얼굴 인식방법은 개개인이 부정과는 무관한 경우 오류를 발생시킬 수 있다. 예를들면, 인증된 개개인이 양호한-품질의 사진이 인쇄된 옷을 입고 건물로 출입할 때, 그 사진이 식별에 적용될 때 건물 접근이 금지될 수 있다.
이러한 오류 보정 및 이러한 유형의 공격을 검출하기 위한 해결책들이 제안되었다.
눈 깜박임을 검출하여 실제 얼굴을 사진과 구분하기 위한 해결책이 예를들면 알려져 있다. 이러한 해결책은 예를들면 문서 ≪Eyeblink?based Anti?Spoofing in Face Recogniztion from a GenericWebcamera≫ (G. Pan, L. Sun, Z. Wu, S. Lao, iccv, pp. 1?8, 2007 IEEE 11th International Conference on Computer Vision, 2007) 및 문서 ≪Real?time eye blink detection with GPU?based SIFT tracking≫ (Lalonde, M., Byrns, D.;Gagnon, L.; Teasdale, N., Laurendeau, D., , pp. 481-487, 2007)에서 개발되었다.
그러나, 일부 경우에 주어진 시간 동안 또는 주어진 개개인 위치에서 사진을 얻어야 하므로 이러한 해결책은 언제나 효과적인 것은 아니다. 따라서 이러한 방법을 위한 눈 깜박임은 통계적으로 보증되지 않고, 더욱이 사람들은 사진이 촬영될 때, 눈을 깜박이지 않는 경향이 있다.
사진에 찍힌 얼굴 방사 휘도를 측정하는 대안이 문서 ≪Masked fake face detection using radiance measurements≫ (Y. Kim, J. Na, S. Yoon, J. Yi, J. Opt. Soc. Am. A/Vol. 26, No. 4/ April 2009)에 제안되었지만, 이러한 방법은 부정에 사용되는 매체 재료에 따라 다르고, 따라서 신뢰성이 매우 낮다.
마지막으로, 영상에 대한 분광분석법을 이용하는 것 역시 부정에 사용되는 사진의 품질 아주 양호하다면 부정확할 수 있다.
따라서, 본 발명의 목적은 이러한 유형의 부정을 검출할 수 있는 선행기술보다 더욱 신뢰할 수 있는 해결책을 제안하는 것이다.
본 발명의 다른 목적은 제시된 얼굴 영상이 얼굴의 볼륨감을 가지도록 굴곡을 이루는 ≪반-평면 (semi-plane)≫ 유형의 부정에 더욱 강건한 해결책을 제공하는 것이다.
이러한 관점에서, 본 발명은 생체인식을 통한 접근제어시스템의 부정 검출 방법을 제안하며, 상기 방법은 다음 단계들로 구성된다:
접근제어시스템 정면에서 개개인의 적어도 2개의 위치, 또는 개개인의 2개의 시각에 따라 개개인이 접근제어시스템에 제시한 적어도 2개의 얼굴 영상을 취하는 단계,
영상의 얼굴 편평도를 나타내는 점수를 결정하기 위하여 2개의 영상을 처리하는 단계, 및
접근제어시스템에 의한 개개인 식별 취급에 이용하도록 편평도 점수에 따라 개개인의 일부에 대한 임의의 부정을 검출하는 단계.
본 발명에 의한 얼굴 인식 방법은 다음과 같은 특징들 중 최소한 하나를 더욱 포함한다:
- 영상으로부터 개개인 얼굴의 적어도 일부의 깊이 지도 (depth map)를 결정하고 편평도 점수를 추론하기 위하여 이러한 깊이 지도를 처리하는 단계.
- 이 경우, 개개인 얼굴 영상 시각과는 무관하도록 깊이 지도의 표준화 단계.
- 개개인 얼굴의 깊이 지도의 정중면 (median plane)을 추정하고, 상기 정중면을 기준으로 편평도 점수를 형성하는 깊이 지도의 점들 편차 (variance)을 계산하는 단계.
- 깊이 지도의 편차 계산은 개개인의 코를 중심으로 한 블록 (block)에 대하여 수행.
- 얼굴의 여러 부분들에 대한 깊이 지도의 편차 계산으로 획득된 편평도 점수들로부터 편평도 점수를 결정하는 단계.
- 개개인 얼굴의 편평도 점수는 다음 단계들을 수행하여 계산된다:
얼굴 편평도 평가에 사용되는 2개의 영상들에서 개개인 얼굴의 관심 점들을 검출하는 단계,
2개의 영상들에 공통된 얼굴의 관심 점들 개수로부터, 편평도 점수를 결정하는 단계.
- 편평도 점수는 특히 2개의 영상들에 공통된 관심 점들의 개수를 다음 군에서 선택되는 수로 나눔으로써 계산: 2개의 영상들에 있는 관심 점들의 평균 개수, 2개의 영상들 간의 관심 점들 최소 또는 최대 개수.
- 개개인 얼굴의 편평도 점수는 다음 단계들을 수행함으로써 평가된다:
얼굴 편평도 평가에 사용되는 2개의 영상들에서 개개인 얼굴의 관심 점들을 검출하는 단계,
검출된 관심 점들로부터 변환 매개변수들 (transformation parameters)을 결정하는 단계,
2개의 영상들 중 하나에 대하여 변환 적용 단계,
2개의 영상들의 관심 점들 결정 단계,
2개 영상들의 관심 점들 등록 단계 (registering), 및
관심 점들 간 차이를 측정하여 얼굴의 편평도 점수를 결정하는 단계.
- 2개의 영상들 중 하나에 대한 변환은 개선된 또는 2차 (quadratic) 변환.
- 편평도 점수 결정 단계는 상기 대안들을 실행하여 획득된 편평도 점수들 중 적어도 하나로부터 이루어진다.
또한 본 발명은 부정 검출 방법에 적용되는 생체인식을 통한 접근제어시스템에 관한 것이고:
개개인의 적어도 2개의 위치 또는 시각에 따라 개개인이 제시하는 적어도 2개의 얼굴 영상들을 포착하는 하나 이상의 수집 (acquisition) 시스템, 및
수집 시스템에 의해 영상들이 전송되고, 이들 2개의 영상들을 처리하여 영상의 얼굴 편평도를 나타내는 점수를 결정하는 계산 플랫폼, 및
이러한 평가로부터 개개인의 일부에 대한 임의의 부정을 검출하고, 얼굴의 생체인식 분석에 따라 개개인 식별하는 접근제어시스템.
본 발명의 기타 특징, 목적 및 이점들이 비-제한적 실시예들로 주어지는 도면들을 참조할 때 상세한 설명에서 명백하여 질 것이다.
도 1은 부정 검출 방법을 실행하는 접근제어시스템 실시예이다,
도 2는 생체인식을 통한 접근제어시스템을 개략적으로 도시한 것이다,
도 3은 부정 검출 방법의 주요 단계들을 나타낸 것이다,
도 4a 내지 4d는 부정 검출 방법에서 수행되는 얼굴 편평도 평가 단계들의 상이한 실시태양들을 도시한 것이다.
도 1 및 2는 접근이 제어되고 특히 인증된 일부 사람들만이 출입이 허용되는 임의의 장소 출입구에 배치된 접근제어시스템을 나타낸다. 이러한 장소에 접근하려는 사람들은 식별 과정, 예를들면 얼굴 인식, 또는 기타 생체인식 (홍채, 디지털 지문 등) 과정을 거쳐야 한다.
예시적 경우, 시스템은 예를들면 보안구역 접근이 가능하도록 출입문 (11) 개방을 제어한다. 수집 시스템 (12)을 포함하며, 이 경우 서로 다른 위치 및 서로 다른 시각에 따라시스템 정면에 서있는 개개인의 영상들 S2을 수집하는 4개의 카메라 (12A - 12D)를 포함한다. 동시적 수집을 위하여 동기화 모듈 (15)은 카메라 (12A - 12D)에 동기화 신호 S1를 전송한다.
또한 접근제어시스템은 계산 플랫폼 (13)을 포함하며, 여기에 영상 S2이 전송되고, 이들 영상들을 취급하여 임의의 부정을 검출한다. 또한 시스템은 데이터베이스 (14)를 포함하며 여기에 제어시스템을 통과하도록 인증된 개개인의 얼굴 영상들 (영상들 S3)이 저장되고, 이들 영상과 수집 영상이 비교되어 개개인 식별이 이루어진다.
부정검출
수집 단계 (100)에서, 개개인 I이 접근제어시스템에 있을 때, 하나 이상의 수집 시스템 (12)은 개개인이 제시한 적어도 2개의 얼굴 영상들을 포착한다.
전송 단계 (200)에서 수집된 영상 S2은 수집 시스템 (12)에 의해 계산 플랫폼 (13)으로 전송된다. 바람직하게는 영상 S2은 디지털 포맷으로 수집되고 통상의 유선 또는 무선으로 전달된다.
이후 필요하다면 계산 플랫폼 (13)은 바람직한 포맷에 따라 영상들을 코딩 또는 압축, 또는 2 이상의 영상들을 선택하는 취급 동작 (210)을 수행한다.
이후, 두 단계들 300 및 400을 통해 계산 플랫폼 (13)은 적어도 2개의 수신되고 선택된 영상들의 부정 검출 처리를 수행한다. 이러한 취급 원리는 영상의 얼굴 편평도 평가 및 이러한 얼굴이 볼륨감이 없고 평면 또는 반-평면 (예를들면 자체가 굴곡된 시트 경우)인 경우 부정 여부를 고려하는 단계로 이루어진다. 실제로, 개개인 I이 카메라에 타인 얼굴을 나타내는 2차원 영상 가리개를 제시하면, 이러한 방식으로 검출되는 얼굴 편평도는 3차원의 얼굴 편평도보다 크다. 이는 편평한 가리개에 나타난 얼굴 (평탄 (flat) 공격)과 진정한 얼굴을 구분하는데 조력한다.
이러한 방식으로, 플랫폼 (13)은 편평도 점수를 계산하고 (단계 300) 편평도 점수를 예정 기준 점수와 비교한다 (단계 400). 편평도 점수 계산을 위한 상이한 방법들이 도 4a 내지 4d를 참조하여 설명된다. 기준 점수는 바람직한 부정 검출 성공률에 따라 달라질 수 있다.
단계 300 및 400 완료 후, 계산 플랫폼 (13)이 부정을 발견하지 못하면, 개개인 I에 대한 식별 처리를 수행한다 (단계 500). 이를 위하여, 플랫폼은 적어도 하나의 수집 영상을 데이터베이스의 일조의 영상들 S3과 비교한다. 대안으로, 접근제어시스템은 카메라 12A - 12D에서 수집된 영상을 개개인에 의해 제시된 식별 문서와 대조한다.
다양한 비교 영상 비교 및 식별 처리 방법이 가능하다. 예시적 실시태양들로서, 다음과 같은 공개문헌들이 참조될 수 있다:
Face recognition: ≪Features versus Templates≫ (R. Brunelli, T. Poggio, IEEE Transactions on Pattern analysis and feature intelligence, Vol. 15, No. 10, October 1993)
Pose-Robust Recognition of Low-Resolution Face Images, Soma Biswas, Gaurav Aggarwal and Patrick J. Flynn, Department of Computer Science and Engineering, University of Notre Dame, Notre Dame, CVPR 2011.
A Deformation and Lighting-Insensitive Metric for Face Recognition Based on Dense Correspondences, Anne Jorstad, David Jacobs, Alain Trouve, CVPR 2011..
이후 출입문 제어 단계 (600)에서 계산 플랫폼 (13)은 개개인 I이 인증된 자이거나 그렇지 않은 경우에 따라 출입문을 개방 또는 폐쇄하는 명령 S4을 전송한다. 개개인 I인 출입 인증되지 않은 경우 계산 플랫폼 (13)은 식별 단계를 반복하거나 (도 3에서 점선 화살표로 표기), 또는 경고 신호를 울린다.
그러나, 계산 플랫폼 (13)이 부정을 검출하면, 단계 600에서 직접 출입문 (11) 폐쇄 명령을 전송한다.
또한 경고신호를 보내거나 또는 재차 (점선 화살표로 표기) 부정 검출을 위한 얼굴 편평도 평가 단계 (300)를 수행한다.
선택적으로, 영상들 S2에 대한 코딩 및 선택 단계 210/212는 수집 시스템 또는 수집 시스템들에 의해 영상 전송 단계 (200) 전에 수행될 수 있다 (도면에서 미도시).
편평도 점수 계산을 위한 다양한 실시예들이 이하 기술된다.
볼륨감 편차 계산에 의한 방법
도 4a를 참조하면, 편평도 계산 제1 방법 M1은 수집 시스템 (12)에 의해 획득되고 계산 플랫폼 (13)에 전송된 개개인에 의해 제시된 얼굴 영상 S2을 선택하는 제1 단계 301를 수행한다. 이들 영상은 센티미터 또는 반-센티미터 정도의 해상도를 가져야 한다. 또한, 영상들은 바람직하게는 개개인 I 좌측 및 우측에 배치된 2개의 수집 시스템 (12)에 의해 동시에 획득된다. 바람직하게는 수집 시스템 (12)은 개개인 시야축 기준으로 0 내지 90° 각도에서 개개인 I 얼굴 영상을 수집한다.
단계 302에서 계산 플랫폼 (13)은 선택 영상들에 대하여 부정 검출을 진행하기 위한 예비 처리를 수행한다. 처리는 선택 영상들로부터 얼굴 추출, 및 필요한 경우 편평도 평가 대상인 단일 부분을 분리하는 것으로 이루어진다.
예를들면 코, 입 또는 눈 영역과 같은 관련 부분은 의미론적으로 규정될 수 있다. 얼굴 일부 분리 알고리즘은 다음 문서들에 기술되어 있다:
3D Probabilistic Feature Point Model for Object Detection and Recognition, Sami Romdhani, Thomas Vetter, University of Basel, Computer Science Department, Bernoullistrasse 16, CH - 4056 Basel, Switzerland.
Multiple Kernel Learning SVM and Statistical Validation for Facial Landmark Detection, Vincent RAPP, Thibaud SENECHAL, Kevin BAILLY, Lionel PREVOST.
선택 및 처리 단계는 역순으로 진행될 수 있어 계산 플랫폼은 처리 대상 얼굴 한 쌍을 선택하기 전에 영상 S2에서 얼굴 또는 선택적으로 편평도 평가 대상의 얼굴 일부 을 추출할 수 있다.
영상들이 선택되면, 플랫폼 (13)은, 단계 303에서, 선택된 얼굴 일부의 깊이 지도를 계산한다.
바람직하게는, 이는 코의 폭 중심과 양쪽 귀를 연장하는 얼굴 부분이고, 높이의 1/3은 개개인의 코 상부이고 2/3는 코 하부이다.
실제로, 이는 일반적으로 편평도가 최소인 얼굴 구역이고, 즉 밀도 및 절대 값에서 가장 돌출된 얼굴 구역이다.
대안으로, 얼굴 일부는 개개인 I의 코를 중심으로 하는 블록일 수 있다.
얼굴 일부의 깊이 지도를 작성하기 위하여 계산 플랫폼 (13)은 문제의 얼굴 일부를 임의의 공지된 재구성 방법에 따라 입체 영상에서 3차원으로 재생한다.
예를들면 2개의 영상들에 공통된 점들을 등록하고, 이러한 등록 점들로부터 두 상응 점들 간의 차이를 측정한다. 이러한 차이는 얼굴 일부의 볼륨감을 나타낸다.
다양한 등록 방법들이 적용될 수 있다. 제1 ≪중공 (hollow)≫ 등록 방법에 의하면 영상의 일부 점들만이 선택되고 등록된다. 본 방법에 따라, 계산 플랫폼 (13)은 예를들면 다음 알고리즘을 적용한다:
예를들면 기울기 또는 색상에 대한 정보에 기초하여 2개 영상들의 관심 점들을 자동 검색,
각각의 관심 점들에 대한 서술자 (descriptor) 계산;
거리 (metric) M(x,y) 설정, 및 서술자 (d(i), d(j))가 양호한 점수 M(d(i), d(j)) - 예를들면 학습 기반으로 통계적으로 규정되는 소정의 기준 이상의 점수를 제시하는2개의 영상들 간의 점들(i,j) 쌍 검색. 제1 영상의 점은 제2 영상과 최고조에 있는 점 만과 연관될 수 있다. 그러나, 어떠한 제2 영상의 어떠한 점도 점수 M(d(i), d(j))를 승인하지 못하면 제1 영상의 점은 쌍에 속하지 못한다.
이들 점수 계산은 점들 사이 거리를 나타내고, 깊이 지도의 볼륨감을 추정하도록 거리를 결정.
대안으로, 계산 플랫폼은 예를들면 다음 알고리즘을 적용하는 조밀 (dense) 등록 방법을 이용한다:
제1 영상의 좌표 (x1, y1)를 가지는 각각의 점 i와 제2 영상의 좌표 (x2, y2)의 점 j를 연관.
각각의 점들 (i,j) 쌍에 대한 거리 (예를들면 유클리디안 거리 이용) 결정으로 깊이 지도 계산.
또한, 3차원으로의 재구성 방법에 대한 상세한 설명은, 공개문헌 ≪Multi-View Stereo Reconstruction and Scene Flow, Estimation with a Global Image-Based Matching Score≫, (Pons, Keriven and Faugeras, Kluwer Academic Publishers, 2005) 참조.
다음 단계 (304)에서, 계산 플랫폼 (13)은 수집 시스템 (12) 기준으로 영상의 개개인 얼굴 각도와 무관하도록 깊이 지도를 표준화한다. 그러나 본 단계는 선택적이다.
단계 (305)에서, 계산 플랫폼은 정중면 기준으로 얼굴의 볼륨감 편차를 계산하여 얼굴 일부 편평도를 나타내는 점수 P1를 결정한다. 이를 위하여, 3차원으로 표시되는 깊이 지도의 정중면을 결정하고, 정중면을 기준으로 3차원에서의 거리를 측정하여 지도에서 각각의 점들의 편차를 계산한다. 편평도 점수 P1는 계산된 편차 값이다.
볼륨감들의 변형
도 4b에 도시된 얼굴 인식 제2 방법 M2은, 제1 방법 M1의 주요 단계들을 답습한다.
다음과 같이 구성된다:
먼저, 방법 M1의 단계 301 내지 305에서 개개인의 완전한 얼굴 또는 일부, 예를들면 코의 폭 중심과 양쪽 귀를 연장하는 얼굴 부분이고, 높이의 1/3은 개개인의 코 상부이고 2/3는 코 하부인 일부에 대하여, 제1 점수 P1를 획득, 및
또한, 방법 M1의 단계 301’ 내지 305’에서 얼굴 일부, 예를들면 코 중심의 블록에 대한 제2 점수 P2 획득. 특히, 얼굴영상 선택 단계 301’은 단계 301에서와 동일 영상들 S2에 대하여 수행되고, 상기 방법에 따라 개개인의 코를 중심으로 하는 블록 분리를 포함한다.
단계 306에서 점수 P1 및 P2로부터 점수 P3를 결정한다. 예를들면, 점수 P3는 P1 및 P2의 선형 조합 즉 P3 = P1 + λP2일 수 있다. 점수 P3은 점수 P1으로 나타나는 볼륨감 및 전체 얼굴 편평도 및 점수 P2로 나타나는 코의 추가 볼륨감 및 돌출 정도를 고려한 것이다.
본 방법은 또한 얼굴 여러 부분들을 분리하고, 이들 일부 각각에 대하여 점수 P2’, P2’’, P2’’’ 등을 계산하여 적용할 수 있다.
이 경우 단계 306에서 결정되는 점수 P3은 점수 P1, P2’, P2’’, P2’’’로부터, 예를들면 점수들의 선형 조합으로; P3 = κ P1 + λ P2’ + μ P2’’ + ν P2’’’ 계산된다.
인자들 κ, λ, μ, 및 ν은 학습 기반으로 진행되는 테스트 과정에서 최적 결과가 나오도록 결정될 수 있다.
이러한 제2 방법 M2은 특히 ≪반-평면≫ 공격에 대항하기 위한 것이다.
실제로, ≪반-평면≫ 공격에서, 개개인은 얼굴에 굴곡이 있는 사진을 소지하여, 사진에 의해 경계를 구성하는 볼륨감은 얼굴과 유사한 볼륨감을 보인다.
그러나, 사진에 굴곡을 형성하더라도 코는 얼굴 나머지 부분에 비하여 돌출부를 형성하므로 코의 볼륨감을 형성할 수는 없다. 편평도 평가의 이러한 방법은, 일반적인 얼굴 편평도 평가 및 사람의 코에 의한 볼륨감으로 구성되므로, 평면 및 반-평면 공격 모두에 대항할 수 있다.
관심점들 비교에 의한 방법
도 4c는 얼굴 편평도에 대한 제3 평가 방법 M3을 도시한 것이다.
본 방법 M3은 바람직하게는 개개인 얼굴 I 좌측 및 우측에서, 동시에 획득되는 2개의 사진들을 필요로 한다. 대안으로, 보안시설 입구에 에어록이 설치된 접근제어시스템에서 이를 통하여 개개인 I이 이동하는 경우, 동일한 수집 시스템은 다른 두 순간에 2개의 영상들 간 개개인 거리 및 수집 시스템 시야각이 다른 2개의 영상들을 획득한다.
제1 단계 311에서, 2개의 영상들 S2이 전송되는 계산 플랫폼 (13)은 피 처리 영상을 선택하고, 이들 영상에서 개개인 얼굴을 추출한다. 본 단계는 상기 단계 301과 유사하다.
이후 계산 플랫폼 (13)은 단계 312에서, 각각의 영상에 대하여, 전형적으로 영상에 대한 강건한 서술자를 이용하여 얼굴의 관심 점들을 결정한다.
예를들면, 관심 점들은 SIFT (크기-불변 특징 변환) 유형의 서술자를 계산하여, 즉, 크기 및 영상에 대하여 불변 서술자로 결정한다. 관심 점들 검출의 다른 방법은 공개문헌 ≪3D Probabilistic Feature Point Model for Object Detection and Recognition≫에 기재되어 있다.
크기에 대한 불변 서술자로 인하여, 두 상이한 영상들에서 해당 관심 점들이 검색된다.
그러나, 영상이 개개인 I 좌측 및 우측에 대하여 획득되는 경우, 얼굴 돌출부로 인하여 일부 관심 점들은 2개의 영상들 중 오직 하나에서만 보인다: 시각에 따라, 눈, 코 또는 피부 예컨대 점의 특징점들 일부에 대하여 그러하다.
그러나, 개개인이 설사 굴곡 사진을 제시하더라도, 돌출부는 사진에 보여지는 얼굴의 관심 점들을 가릴 수는 없다.
이러한 현상은, 비-정면 영상들에서, 영상이 획득되는 얼굴의 편평도 평가에 사용될 수 있다: 비교 단계 313에서, 2개의 영상들을 비교하여 2개의 영상에 공통되는 관심 점들 및 2개의 영상들 중 하나에만 나타나는 관심 점들을 결정한다. 이러한 단계를 위하여, 계산 플랫폼은 상기된 조밀 등록 알고리즘 또는 중공 알고리즘을 실행한다.
단계 314에서, 계산 플랫폼 12은 공통 관심 점들의 개수로부터 영상에 형성된 얼굴 편평도를 나타내는 점수 P4를 결정한다.
이러한 점수 P4는 2개의 영상들에 공통된 관심 점들의 개수를 2개의 영상들의 최소, 최대 또는 평균 관심 점들 개수로 나누어 계산된다.
영상의 얼굴에서 돌출부를 덜 가지면, 점수 P4는 더 크다. 결국, 본 방법을 공지된 데이터베이스의 영상들에 대하여 충분한 회수로 반복하면 확신을 가지고 부정을 검출할 수 있는 기준 이상의 점수 P4가 결정된다.
영상들의변환및중첩을통한방법
도 4d는 부정 검출을 위한 얼굴 편평도 평가 제4 방법 M4을 도시한 것이다.
본 방법 M4을 실행하기 위하여, 바람직하게는 개개인 얼굴 정면, 또는 개개인 얼굴 좌측 및 우측에서 대칭 시각에서 획득된 영상들 S2이 사용된다.
제1 단계 321에서, 플랫폼 (13)은 단계 201에서와 유사하게 수집 시스템 (12)이 전송하는 영상 S2에서 얼굴을 선택한다.
단계 322에서, 플랫폼 (13)은 2개의 영상들에서, 상기 단계 312에서와 유사하게 관심 점들을 결정한다.
계산 플랫폼 (13)은 단계 313에서와 유사하게 단계 323에서 식별된 관심 점들을 등록하고, 2개의 영상들 S2 중 하나에 대하여, 단계 324에서, 고전적 선형대수 방법으로 결정되는 매개변수들로 예를들면 단계 323에서 등록된 점들 쌍으로부터 개선된 (refined) 또는 이차 유형의 변환이 수행된다.
매개변수들은 시각 차이로 발생되는 영상들 간의 차이를 없애도록 계산된다. 이 경우, 변환되는 영상은 3차원에서 볼륨감의 영상보다 평탄 영상의 경우에서 대비되는 영상에 더욱 가까운데, 이는 2개의 영상들에 있는 정보는 후자의 경우 다르기 때문이다.
단계 322에서와 동일한 방식으로 단계 325에서, 계산 플랫폼 (12)은 이미 하나가 변환된 2개의 영상들에 있는 관심 점들을 결정한다.
마지막으로 단계 326에서, 플랫폼은 2개의 영상들의 관심 점들을 등록하고, 단계 327에서 관심 점들 간의 차이를 측정한다.
이러한 측정값은 편평도 점수 P5를 나타낸다.
실제로, 평탄 영상의 경우 2개의 영상들은 변환 후 일치하고, 관심 점들 간의 차이는 볼륨 영상들의 것보다 더욱 감소한다.
마지막으로, 상이한 방법을 구현하여 각각의 점수를 획득하고, 이러한 점수들로부터 최종 편평도 점수 P6를 추론하는 것도 가능하다. 이러한 점수는 편평도 점수들 P1 내지 P5의 선형 조합 또는 평균일 수 있다, 더욱 강건한 결과를 얻는다.

Claims (13)

  1. 생체인식을 통한 접근제어시스템의 부정 검출 방법에 있어서, 상기 방법:
    접근제어시스템 정면에서 개개인의 적어도 2곳의 위치, 또는 개개인의 2개의 시각에 따라 개개인 (I)이 접근제어시스템에 제시한 적어도 2개의 얼굴 영상들 (S2)을 취하는 단계,
    영상의 얼굴 편평도를 나타내는 점수를 결정하기 위하여 2개의 영상들을 처리하는 단계, 및
    접근제어시스템에 의한 개개인 식별 처리에 이용하도록 편평도 점수에 따라 개개인의 일부에 대한 임의의 부정을 검출하는 단계로 구성되는, 부정 검출 방법.
  2. 제1항에 있어서, 영상들로부터 개개인 얼굴의 적어도 일부의 깊이 지도 (depth map)를 결정하고 편평도 점수를 추론하기 위하여 이러한 깊이 지도를 처리하는, 부정 검출 방법.
  3. 제2항에 있어서, 개개인 얼굴 영상 시각과는 무관하도록 깊이 지도의 표준화 단계를 추가로 포함하는, 부정 검출 방법.
  4. 제2항 또는 제3항에 있어서, 상기 깊이 지도의 정중면 (median plane)은 개개인 얼굴 일부의 깊이 지도로부터 추정되고, 상기 정중면을 기준으로 깊이 지도의 점들 편차 (variance)을 계산하고, 상기 편차는 편평도 점수 (P1)를 형성하는, 부정 검출 방법.
  5. 제1항에 있어서,
    개개인 코 중심으로 얼굴 블록을 영상으로부터 분리하는 단계,
    상기 블록의 깊이 지도를 결정하는 단계,
    상기 깊이 지도의 정중면을 추정하는 단계, 및
    상기 정중면을 기준으로 깊이 지도의 점들 편차를 계산하는 단계로 구성되고, 상기 편차는 상기 블록에 대한 편평도 점수 (P2)인, 부정 검출 방법.
  6. 제1항에 있어서, 개개인 (I)에 의해 제시되는 얼굴의 편평도 점수 (P3)는 제4항 및 제5항의 방법을 적용하여 획득되는 점수 (P1, P2)로 결정되는, 방법.
  7. 제1항에 있어서, 개개인 얼굴의 편평도 점수는 다음 단계들을 수행하여 계산되는, 부정 검출 방법.
    얼굴 편평도 평가에 사용되는 2개의 영상들에서 개개인 얼굴의 관심 점들을 검출하는 단계,
    2개의 영상들에 공통된 얼굴의 관심 점들 개수로부터, 편평도 점수를 결정하는 단계.
  8. 선행 항에 있어서, 편평도 점수(P4) 는 2개의 영상들에 공통된 관심 점들의 개수를 다음 군: 2개의 영상들에 있는 관심 점들의 평균 개수, 2개의 영상들 간의 관심 점들 최소 또는 최대 개수에서 선택되는 수로 나눔으로써 계산되는, 부정 검출 방법.
  9. 제1항에 있어서, 개개인 얼굴의 편평도 점수는,
    얼굴 편평도 평가에 사용되는 2개의 영상들에서 개개인 얼굴의 관심 점들을 검출하는 단계,
    검출된 관심 점들로부터 변환 매개변수들 (transformation parameters)을 결정하는 단계,
    2개의 영상들 중 하나에 대하여 변환 적용 단계,
    2개의 영상들의 관심 점들 결정 단계,
    2개 영상들의 관심 점들 등록 단계 (registering), 및
    관심 점들 간 차이를 측정하여 얼굴의 편평도 점수를 결정하는 단계를 수행함으로써 평가되는, 부정 검출 방법.
  10. 선행 항에 있어서, 변환은 개선된 또는 2차 (quadratic) 변환인, 부정 검출 방법.
  11. 제1항에 있어서, 개개인 얼굴의 편평도 점수 (P6)는 제3항 내지 제10항 중 어느 하나의 방법을 수행하여 획득되는 적어도 하나의 편평도 점수 (P1, P2, P3, P4, P5)인, 부정 검출 방법.
  12. 생체인식을 통한 접근제어시스템에 있어서, 상기 시스템은,
    개개인 (I)의 적어도 2곳의 위치 또는 시각에 따라 개개인이 제시하는 적어도 2개의 얼굴 영상들을 포착하는 하나 이상의 수집 (acquisition) 시스템 (12), 및
    수집 시스템 (12)에 의해 영상들이 전송되고, 이들 2개의 영상들 (S2)을 처리하여 영상의 얼굴 편평도를 나타내는 점수를 결정하는 계산 플랫폼 (13)으로 구성되고, 이러한 평가로부터 개개인의 일부에 대한 임의의 부정을 검출하고, 얼굴의 생체인식 분석에 따라 개개인을 식별하는 접근제어시스템.
  13. 선행 항에 있어서, 상기 시스템은 제어되는 접근 출입문 (11) 상류에 배치되고, 계산 플랫폼 (13)은 출입문 개방을 제어하고, 부정 검출 및 개개인 식별에 의해 출입문 (11)이 개방되는, 접근제어시스템.
KR1020147007626A 2011-09-01 2012-08-30 생체인식 유형의 접근제어시스템에 대한 부정 검출 KR101436290B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1157764A FR2979728B1 (fr) 2011-09-01 2011-09-01 Detection de fraude pour systeme de controle d'acces de type biometrique
FR1157764 2011-09-01
PCT/EP2012/066919 WO2013030309A1 (fr) 2011-09-01 2012-08-30 Detection de fraude pour systeme de controle d'acces de type biometrique

Publications (2)

Publication Number Publication Date
KR20140074303A true KR20140074303A (ko) 2014-06-17
KR101436290B1 KR101436290B1 (ko) 2014-08-29

Family

ID=46755014

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147007626A KR101436290B1 (ko) 2011-09-01 2012-08-30 생체인식 유형의 접근제어시스템에 대한 부정 검출

Country Status (8)

Country Link
US (1) US8933783B2 (ko)
EP (1) EP2751739B1 (ko)
JP (1) JP5592040B1 (ko)
KR (1) KR101436290B1 (ko)
CN (1) CN103907122B (ko)
FR (1) FR2979728B1 (ko)
PT (1) PT2751739E (ko)
WO (1) WO2013030309A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210054977A (ko) * 2019-11-06 2021-05-14 대구대학교 산학협력단 이중 락 해제를 통한 도어의 개폐 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202983B2 (ja) * 2013-10-22 2017-09-27 株式会社東芝 本人認証システム
KR101821144B1 (ko) * 2015-12-31 2018-01-23 동의대학교 산학협력단 깊이정보 기반의 안면인식 출입통제시스템
US10204262B2 (en) 2017-01-11 2019-02-12 Microsoft Technology Licensing, Llc Infrared imaging recognition enhanced by 3D verification
US10372974B2 (en) 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
CN108125686B (zh) * 2017-07-13 2021-02-12 广东网金控股股份有限公司 一种反欺诈方法及***
KR102126722B1 (ko) * 2018-06-22 2020-06-25 한국스마트인증 주식회사 3차원 피사체 인식의 안티-스푸핑 방법
CN112270303A (zh) * 2020-11-17 2021-01-26 北京百度网讯科技有限公司 图像识别方法、装置以及电子设备
FR3126051B1 (fr) 2021-08-04 2023-11-03 Smartphone Id Procédé pour déterminer si une image du visage d’une personne est apte à former une photographie d’identité

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496594B1 (en) * 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
JP3829729B2 (ja) * 2002-02-14 2006-10-04 オムロン株式会社 個人認証装置
US7242807B2 (en) * 2003-05-05 2007-07-10 Fish & Richardson P.C. Imaging of biometric information based on three-dimensional shapes
JP4734980B2 (ja) * 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP2008204200A (ja) * 2007-02-20 2008-09-04 Space Vision:Kk 顔解析システム及びプログラム
CN101964064B (zh) * 2010-07-27 2013-06-19 上海摩比源软件技术有限公司 一种人脸比对方法
CN102142154B (zh) * 2011-05-10 2012-09-19 中国科学院半导体研究所 生成脸部虚拟图像的方法与装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210054977A (ko) * 2019-11-06 2021-05-14 대구대학교 산학협력단 이중 락 해제를 통한 도어의 개폐 방법

Also Published As

Publication number Publication date
JP2014529815A (ja) 2014-11-13
PT2751739E (pt) 2015-07-02
JP5592040B1 (ja) 2014-09-17
US20140292480A1 (en) 2014-10-02
KR101436290B1 (ko) 2014-08-29
CN103907122A (zh) 2014-07-02
FR2979728B1 (fr) 2016-05-13
CN103907122B (zh) 2016-01-20
WO2013030309A1 (fr) 2013-03-07
EP2751739A1 (fr) 2014-07-09
EP2751739B1 (fr) 2015-03-04
FR2979728A1 (fr) 2013-03-08
US8933783B2 (en) 2015-01-13

Similar Documents

Publication Publication Date Title
KR101436290B1 (ko) 생체인식 유형의 접근제어시스템에 대한 부정 검출
US11657525B2 (en) Extracting information from images
US12014571B2 (en) Method and apparatus with liveness verification
US11288504B2 (en) Iris liveness detection for mobile devices
CN109446981B (zh) 一种脸部活体检测、身份认证方法及装置
US11941918B2 (en) Extracting information from images
US7065232B2 (en) Three-dimensional ear biometrics system and method
JP3954484B2 (ja) 画像処理装置およびプログラム
US20100158319A1 (en) Method and apparatus for fake-face detection using range information
US20100329568A1 (en) Networked Face Recognition System
US20210168347A1 (en) Cross-Modality Face Registration and Anti-Spoofing
Kose et al. Shape and texture based countermeasure to protect face recognition systems against mask attacks
Muñoz-Salinas et al. Multi-camera head pose estimation
CN111666835A (zh) 一种人脸活体检测方法和装置
KR20020022295A (ko) 3차원 정보를 이용한 얼굴 인식 장치 및 방법
KR101053253B1 (ko) 3차원 정보를 이용한 얼굴 인식 장치 및 방법
CN111652018B (zh) 一种人脸注册方法和认证方法
JP4384366B2 (ja) 画像照合処理システムおよび画像照合方法
KR102483647B1 (ko) 라이브니스 검증 방법 및 장치
KR101718244B1 (ko) 얼굴 인식을 위한 광각 영상 처리 장치 및 방법
TW484105B (en) Door security system of face recognition
Lin et al. Liveness detection using texture and 3d structure analysis
JP2007004534A (ja) 顔判別方法および装置ならびに顔認証装置
TW201931203A (zh) 身份驗證裝置、身份驗證方法、及其電腦可讀儲存介質
Li et al. David Zhang and Vivek Kanhangad

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170811

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180801

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190801

Year of fee payment: 6