KR20060054540A - 얼굴 인식 방법 및 장치 - Google Patents

얼굴 인식 방법 및 장치 Download PDF

Info

Publication number
KR20060054540A
KR20060054540A KR1020040093609A KR20040093609A KR20060054540A KR 20060054540 A KR20060054540 A KR 20060054540A KR 1020040093609 A KR1020040093609 A KR 1020040093609A KR 20040093609 A KR20040093609 A KR 20040093609A KR 20060054540 A KR20060054540 A KR 20060054540A
Authority
KR
South Korea
Prior art keywords
face
image
dimensional vector
generated
value
Prior art date
Application number
KR1020040093609A
Other languages
English (en)
Other versions
KR100608595B1 (ko
Inventor
성영훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040093609A priority Critical patent/KR100608595B1/ko
Priority to US11/269,570 priority patent/US7953278B2/en
Publication of KR20060054540A publication Critical patent/KR20060054540A/ko
Application granted granted Critical
Publication of KR100608595B1 publication Critical patent/KR100608595B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 외부 조명 변화에 보다 강인한 얼굴 인식 방법에 관한 것이다.
본 발명에 따른 얼굴 인식 장치는, 입력 영상에서 추출된 얼굴 영역에서 소정 개수의 특징점을 추출하는 얼굴 로컬라이저와, 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 복수의 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하고 구해진 반응값들로 이루어진 1차원 벡터를 생성하는 가버 필터부와, 생성된 1차원 벡터가 학습 영상에 관한 값인 경우에 1차원 벡터들을 저장하는 학습 데이터 저장부와, 저장된 1차원 벡터들을 이용하여 이진 판별 기준을 생성하고 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 생성된 1차원 벡터를 이진 판별기준에 적용하여 동일인 여부를 판별하는 이진 분류기로 이루어진다.
얼굴 인식, 가버 필터(Gabor filter), SVM(Support Vector Machines), NN(Nearest Neighbor)

Description

얼굴 인식 방법 및 장치{Face identifying method and apparatus}
도 1은 본 발명의 일 실시예에 따른 얼굴 인식 장치의 구성을 나타낸 블록도.
도 2는 영상 입력부의 세부 구성을 나타낸 블록도.
도 3은 얼굴 로컬라이저의 세부 구성을 나타낸 블록도.
도 4는 가버 필터들의 집합의 예를 나타낸 도면.
도 5는 본 발명의 일 실시예에 따른 이진 판별 기준 생성 과정을 나타낸 흐름도.
도 6는 본 발명의 일 실시예에 따라 인식 대상 영상으로부터 동일성 여부를 판단하는 과정을 나타낸 흐름도.
(도면의 주요부분에 대한 부호 설명)
10 : 영상 입력부 11 : 렌즈부
12 : 광센서 13 : A/D 변환기
20 : 얼굴 로컬라이저 21 : 얼굴 감지부
22 : 얼굴 영역 추출부 23 : 얼굴 크기 변환부
24 : 영상 전처리부 25 : 특징점 추출부
30 : 가버 필터부 40 : 이진 분류기
41 : 학습부 42 : 판별부
50 : 학습 데이터 저장부 100 : 얼굴 인식 장치
본 발명은 영상 처리 분야에 관한 것으로, 보다 상세하게는 외부 조명 변화에 보다 강인한(robust) 얼굴 인식 방법에 관한 것이다. 이를 위하여, 본 발명에서는, 가버 필터(Gabor filter)에 의하여 변환된 얼굴 영상을 이진 분류기(binary classifier)의 입력으로 사용하여, 입력 얼굴 영상이 소정의 데이터 베이스에 저장된 얼굴 영상과 동일한지 여부를 판단하는 방법을 사용한다.
정보화 사회가 발달함에 따라 사람을 식별하기 위한 신분 확인 기술이 중요해지고 있으며, 컴퓨터를 이용한 개인의 정보 보호 및 신분 확인을 위해 인체 특징을 이용하는 생체 인식 기술이 많이 연구되고 있다. 생체 인식 기술 중에서도 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 달리, 비접촉식으로 사용자의 신분을 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고있다. 얼굴 인식 기술은 멀티미디어 데이터 베이스 검색 핵심 기술 중의 하나로 얼굴 정보를 이용한 동영상의 요약, 신분 증명, HCI(Human Computer Interface) 이미지 검색, 보안, 감시시스템 등 다양한 응용 분야에서 널리 이용되고 있다.
그러나 얼굴 인식은 동일성(identity), 나이, 인종, 표정, 장신구 등의 내적 환경 변화나, 포즈(pose), 외부 조명, 이미지 프로세스(image process) 등의 외적 환경 변화에 따라서 그 인식 결과가 민감하게 달라지는 특성이 있다. 특히, 외부 조명 변화는 얼굴 인식에 있어서, 매우 빈번하게 발생하는 장애 요소이므로, 이러한 외부 조명 변화에 강인한 알고리즘을 개발하는 것은 매우 중요하다.
외부 조명 변화에 강인한 얼굴 인식 방법으로서, 대표적인 것이 가버 필터(Gabor filter)를 이용한 얼굴 인식 방법(이하, 가버 필터법이라고 함)이다. 이 가버 필터법은 사람 눈의 단순 셀(simple cell)에서 응답 특성에 대한 수학적 모델링을 이용한 것이 때문에, 외부 조명 변화에 아주 강인한 특성을 가지고 있다. 가버 필터법은 그 자체만으로 얼굴 인식 알고리즘으로 사용될 수 있으며, 실제 현재 여러 응용 분야에서 이용되고 있다.
이러한 가버 필터법은 주 성분 분석법(PCA; Principal Component Analysis) 등 얼굴의 전체적인 구성을 통하여 얼굴을 인식하는 방법에 비하여 외부 조명 변화에 대하여 강인한 특성을 갖지만, 통계학적 확률을 기반으로 하는 각종 이진 분류 방법에 비하여 그 인식 정확도가 다소 미흡한 단점이 있다. 이에 비하여 확률 기반의 이진 분류 방법은 실험적 누적 에러를 최소화하고 가설 공간(hypothesis space)의 복잡성을 감소시킴으로써 얼굴 인식의 정확도를 향상시키는 매우 강력한 방법이다.
이러한, 이진 분류 방법으로는 SVM(Support Vector Machines), NN(Nearest Neighbor) 등이 있는데, 이 중에서도 얼굴 인식 분야에서는 SVM이 많이 사용되고 있다. 이진 분류 방법은 얼굴과 얼굴이 아닌 부분의 학습 데이터(training set)을 이용하여, 입력 영상에서 얼굴 영상인 부분을 판단한다. NN 을 수행한 결과값이, 기존의 얼굴 영상에 대한 학습 데이터의 결과값과 유사하게 나오면 얼굴로 판단, 그렇지 않으면 얼굴이 아닌 것으로 판단한다. 이와 같이, 이진 분류 방법은 얼굴 영상과 비 얼굴 영상으로 분류하는 데 적용할 수도 있지만, 마찬가지 방법에 의하여 어떤 얼굴 영상이 특정인의 것인지 아닌지(다른 사람의 것인지)를 판단함으로써 얼굴 영상의 동일성(Identity)을 판단하는 데에도 적용할 수 있다.
이진 분류 방법은 특히, 인식 속도보다는 인식 정확도를 필요로 하는 분야에서 SVM은 매우 유력한 얼굴 인식 방법으로 사용된다. 또한, 상기 주 성분 분석법이나 가보 필터법에 비하여 얼굴 인식을 위해 처리해야 데이터 처리량이 훨씬 많기 때문에, 실시간 얼굴 인식 분야나 기타 신속한 얼굴 인식을 필요로 하는 분야에서는 적합하지 않다는 문제점이 있었지만, 최근 마이크로 프로세서(micro-processor)의 비약적인 발전에 따라서 이러한 문제점도 어느 정도 해결되고 있다.
그러나, 이진 분류 방법은 일반적인 환경에서는 이외의 방법에 비하여 탁월한 얼굴 인식 성능을 나타내기는 하지만, 조명 변화가 심한 환경에서는 그 인식 성능이 현저히 감소한다. 이는 이진 분류 방법이 입력 벡터로서 영상의 강도, 즉 화소의 그레이 값(gray value)을 그대로 사용하기 때문이다. 이진 분류 방법의 이러한 문제점을 보완하기 위하여 입력 영상에 대하여 히스토그램 균등화(Histogram Equalization), RetineX 등의 전처리 기법이 적용되고 있지만, 그에 대한 근본적인 해결책이 되기는 어렵다.
본 발명은 상기한 문제점을 고려하여 창안된 것으로, 외부 조명 변화에 보다 강인하면서 인식 정확도가 높은 얼굴 인식 방법 및 장치를 제공하는 것을 목적으로 한다.
이를 위하여 본 발명은, 입력 영상을 가버 필터링한 결과를 이용한 이진 분류 방법을 제공하는 것을 또 다른 목적으로 한다.
상기한 목적을 달성하기 위하여, 본 발명에 따른 얼굴 인식 장치는, 입력 영상에서 추출된 얼굴 영역에서 소정 개수의 특징점을 추출하는 얼굴 로컬라이저; 상기 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 복수의 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하고, 상기 구한 반응값들로 이루어진 1차원 벡터를 생성하는 가버 필터부; 상기 생성된 1차원 벡터가 학습 영상에 관한 값인 경우에 상기 1차원 벡터들을 저장하는 학습 데이터 저장부; 및 상기 저장된 1차원 벡터들을 이용하여 이진 판별 기준을 생성하고, 상기 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 상기 생성된 1차원 벡터를 상기 이진 판별기준에 적용하여 동일인 여부를 판별하는 이진 분류기를 포함한다.
상기한 목적을 달성하기 위하여, 본 발명에 따른 얼굴 인식 방법은, (a) 입력 영상에서 추출된 얼굴 영역에서 소정 개수의 특징점을 추출하는 단계; (b) 상기 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 복수의 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하는 단계; (c) 상기 구한 반응값들로 이루어진 1차원 벡터를 생성하는 단계; (d) 상기 생성된 1차원 벡터가 학습 영상에 관 한 값인 경우에 상기 1차원 벡터들을 저장하는 단계; (e) 상기 저장된 1차원 벡터들을 이용하여 이진 판별 기준을 생성하는 단계; 및 (f) 상기 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 상기 생성된 1차원 벡터를 상기 이진 판별기준에 적용하여 동일인 여부를 판별하는 단계를 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 일 실시예에 따른 얼굴 인식 장치(100)는, 도 1에서 도시하는 바와 같이, 영상 입력부(10), 얼굴 로컬라이저(face localizer; 20), 가버 필터부(30), 이진 분류기(40), 및 학습 데이터 저장부(50)를 포함하여 구성될 수 있다. 그리고, 이진 분류기(40)는 다시 학습부(41)와 판별부(42)로 세분화될 수 있다.
영상 입력부(10)는 얼굴 영상을 포함하는 입력 영상을 수신하여 화소 값으로 변환한다. 영상 입력부(10)는 도 2에서 도시하는 바와 같이, 입력 영상을 투과시키는 렌즈부(11), 상기 투과된 입력 영상에 따른 광신호를 전기적 신호(촬상 화상 신호)로 변환 출력시키는 광센서(12), 및 상기 변환된 전기적 신호를 디지털 신호로 변환하는 A/D 변환기(13)을 포함한다. 여기서, 광센서(12)는 카메라가 가지는 노출, 감마, 이득조정, 화이트 밸런스, 컬러 매트릭스 등의 기능을 수행하는데, CCD(Charge Coupled Device) 모듈, CMOS(Complementary metal oxid semiconductor) 모듈 등에 의하여 구현될 수 있다.
얼굴 로컬라이저(20)는 입력 영상으로부터 추출된 얼굴 영역에서 소정 개수의 특징점을 추출한다. 얼굴 로컬라이저(20)는, 도 3에서 도시하는 바와 같이, 얼굴 감지부(21), 얼굴 영역 추출부(22), 얼굴 크기 변환부(23), 영상 전처리부(24), 및 특징점 추출부(25)를 포함할 수 있다.
얼굴 감지부(21)는 화소 값으로 표현된 입력 영상으로부터 얼굴 내의 특정 구성 요소를 검출한다. 예컨대, 얼굴 영상 내의 두 눈을 검출하고 이를 얼굴 영상 추출의 기준으로 삼는다. 입력 영상에 얼굴 영상이 포함되어 있다면, 소정 범위내의 거리를 갖는 두 눈의 위치를 찾을 수 있을 것이다.
얼굴 영역 추출부(22)는 얼굴 감지부(21)를 통해 검출된 얼굴 내의 특정 구성 요소의 위치에 근거하여 그 위치와 일정비를 유지하도록 얼굴 영역을 추출한다. 예컨대, 얼굴 감지부(21)에서 두 눈의 위치를 검출하였다면, 두 눈의 거리를 구할 수 있다. 얼굴 인식을 위한 전처리 단계로서, 두 눈 사이의 거리를 기초로 입력 영상에서 얼굴 영역을 잘라내는 방법을 사용하는 것은 영상의 배경 혹은 사람의 머리 스타일의 변화 등에 대한 영향을 최소화시키기 위해서다.
예컨대, 두 눈 사이의 거리를 2D라고 할 때, 왼쪽 눈 바깥의 거리 및 오른쪽 눈 바깥의 거리를 각각 D로 하고, 눈을 기준으로 눈 위의 영역 거리를 1.5*D로 하 고, 눈을 기준으로 눈 아래의 영역 거리를 3*D로 하여 얼굴 인식에 적절한 얼굴 영역을 잘라낼 수 있다. 이러한 비율로 얼굴 영역을 잘라낼 경우에 배경을 최소화시키면서 수치상으로 간단한 비율을 갖고 또한 눈썹, 눈, 코, 입술 등 얼굴 전체에서 얼굴의 특징을 잘 포함할 수 있다.
얼굴 크기 변환부(23)는 얼굴 영역 추출부(22)에서 추출된 얼굴 영역과 이후에 적용될 가버 필터 가 서로 일정비를 갖도록 적어도 하나의 크기를 변환시킨다. 한 방법으로, 얼굴 영역의 크기를 이후에 적용될 2-D 가버 필터의 크기에 따라 변화시킨다. 즉, 얼굴 영역의 특정 생김새 예컨대, 두 눈간의 거리와 2-D 가버 필터의 크기를 고려하여 서로 일정비를 유지하도록 영상의 크기를 변화시킨다. 또는 다른 방법으로, 가버 필터의 크기를 변화시켜 일정비를 유지할 수도 있다. 여기서, 가버 필터의 크기 변화는 즉, 해상도의 변화를 의미한다.
영상 전처리부(24)는 얼굴 크기 변환부(23)를 거친 얼굴 영역에 대해 히스토그램 평활화(histogram equalization) 과정을 거쳐 조명의 영향을 감소시킨다. 입력 영상들은 조명의 영향으로 상대적으로 휘도가 높거나 낮을 수 있고, 한 입력 영상에서도 휘도가 높은 부분과 낮은 부분이 생길 수 있다. 조명의 영향을 감소시키기 위해, 얼굴 영역에서 각 화소의 휘도 분포를 분석하여 히스토그램을 얻고, 빈도수가 높은 휘도를 중심으로 히스토그램을 평활화한다.
가버 필터만을 사용하는 것만으로도 조명에 대한 영향을 감소시킬 수 있으므로 영상 전처리부(24)는 필수 구성요소는 아니지만, 얼굴 로컬라이저(20)에서 보조적으로 사용될 수는 있다.
특징점 추출부(25)는 영상 전처리부(24)에서 전처리된 얼굴 영역에서 가버 필터를 적용할 소정수의 특징점들을 추출한다. 이러한 특징점들은 다수의 사람들을 대상한 실험을 통하여, 얼굴 영역에서 가버 필터의 적용 결과가 서로 다른 입력 얼굴 영상간에 차이가 크게 되는 얼굴 영역 상의 점들로 선택되는 것이 바람직하다. 이는 얼굴 영역에서 특징점은 임의로 선택할 수 있지만, 선택된 특징점들에 대하여 가버 필터를 적용하였을 때 그 결과가 얼굴 별로 명확하게 차이가 나도록 함으로써 얼굴 인식 성능을 보다 향상시키기 위함이다.
가버 필터부(30)는 특징점 추출부(25)에서 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하고, 이렇게 얻은 반응값들로 이루어진 1차원 벡터(vector) 또는 어레이(array)를 생성한다.
일반적으로, 가버 필터로부터 반응값(Pj(x))을 구하는 식은 다음 수학식 1과 같다.
Figure 112004053181871-PAT00001
여기서, kν, φμ는 각각 주파수(frequency)와 방향성(originality)을 나타낸다. 예컨대, ν의 범위는 0~4로 하고 μ의 범위는 0~7로 택한 경우에는, 총 40개의 가버 필터들의 집합을 이용하는 것이 된다. 도 4는 이 경우에 가버 필터들의 집합, 또는 웨이블릿 패턴의 예를 나타낸 것이다. 도 4에서 보면, 주파수 방향으로는 5개, 방향성 방향으로는 8개의 패턴이 존재하므로, 전체적으로 40개의 웨이블릿 패턴이 나타나 있다.
결국, 가버 필터부(30)는 얼굴 로컬라이저(20)에서 추출된 특징점 각각에 수학식 1을 적용하여 반응값들을 구하고 그 반응값들을 1차원 벡터 내지 어레이(이하 가버 필터링된 벡터라고 함)로 표현하는 역할을 담당한다. 이러한 가버 필터링된 벡터는 하나의 학습(training) 영상, 또는 인식하고자 하는 하나의 입력 영상에 대응되며, k개의 반응값으로 구성된다. 만약, 20개의 특징점들에 대해 40개의 가버 필터들을 적용했다면, k는 800이 될 것이다.
가버 필터부(30)는 상기 가버 필터링된 벡터가 학습 영상에 대한 것인 경우에는 상기 벡터를 학습 데이터 저장부(50)에 저장하고, 상기 가버 필터링된 벡터가 인식 대상 영상에 대한 것인 경우에는 상기 벡터를 이진 분류기(40)의 판별부(42)에 제공한다.
학습 데이터 저장부(50)는 학습 영상이 입력되는 기간 동안 반복하여, 가버 필터부(30)로부터 제공되는 가버 필터링된 벡터들, 즉 학습 데이터들을 저장한다. 저장시에는 상기 가버 필터링된 벡터 및 그 벡터의 목표 출력 값(target value; 후술하는 수학식 2의 y값)을 함께 저장하고, 후에 학습 영상의 입력이 종료되고 학습부(41)가 이진 판별 기준을 생성할 때 상기 학습 데이터들을 제공한다. 여기서, 목표 출력 값은 두 개의 서로 다른 값을 가질 수 있는데 본 명세서에서는 일 예로, 선택된 특정 얼굴 영상에의 학습데이터에 대해서는 1이 부여되고, 상기 특정 얼굴 영상 이외 영상의 대한 학습데이터에 대해서는 -1이 부여된다.
이진 분류기(40)는 학습 데이터 저장부(50)에 저장된, 복수의 학습 영상(training image)에 대한 가버 필터링된 벡터들을 이용하여 이진 판별 기준을 생성하는 학습부(41)와, 인식 대상 영상에 대한 가버 필터링된 벡터를 상기 가버 필터부(30)로부터 입력 받아 상기 이진 판별 기준에 적용함으로써 상기 인식 대상 영상에 포함되는 얼굴 영상이 특정인의 것인지 여부(동일인 여부)를 판별하는 판별부(42)를 포함한다.
이진 분류기(40)로서 SVM을 사용한다고 하면, 학습부(41)에서 상기 이진 판별 기준을 생성하는 것은 최적 하이퍼평면(hyperplane)을 구하는 과정이 될 것이 며, 판별부(42)에서 동일인 여부를 판별하는 것은 입력된 가버 필터링된 벡터를 상기 최적 하이퍼평면을 구성하는 식에 대입하여 그 결과 값이 소정의 임계치를 넘는가를 기준으로 판별하는 과정이 될 것이다. SVM에서는 이와 같이 하나의 최적 하이퍼평면에 의하여 두 개로 분리 되는 영역을 각각 클래스(class)라고 한다. 본 발명에서는 얼굴 영상이 특정인의 것에 속한다고 판별되는 클래스와, 특정인의 것에 속하지 않는 것으로 판별되는 클래스로 나뉘어질 것이다.
먼저, 본 발명의 일 실시예에 따른 SVM의 최적 하이퍼평면을 구하는 과정을 다음의 수학식 2 내지 수학식 10의 전개 과정을 참조하여 살펴본다. 본 발명에서 SVM에 입력되는 학습 데이터는, 영상 입력부(10)를 통하여 입력된 학습 영상으로부터 생성된 가버 필터링된 벡터, 즉 학습 영상에 대한 가버 필터링된 벡터이다. 상기 학습 데이터는 다음의 수학식 2와 같이 표현될 수 있다.
Figure 112004053181871-PAT00002
여기서, xi는 ℓ개의 학습 영상 각각에 대한 가버 필터링된 벡터이고, yi는 목표 출력 값(target value)을 나타낸다. 전술한 바와 같이, 목표 출력 값은 선택된 특정 얼굴 영상에의 학습데이터에 대해서는 1이 부여되고, 상기 특정 얼굴 영상 이외 영상의 대한 학습데이터에 대해서는 -1이 부여될 수 있다.
xi(가버 필터링 벡터) 는 상술한 바와 같이 k개의 구성요소(가버 필터에서의 반응값)로 이루어진다.
만약, 두 클래스가 선형 분리가 가능하다면, 다음의 수학식 3과 같은 하이퍼평면에 의하여 두 클래스를 구분할 수 있다.
Figure 112004053181871-PAT00003
여기서, w는 하이퍼평면에 대한 법선 벡터이고, b는 상수이다.
이러한 하이퍼평면 중에서 하이퍼평면과 가장 가까운 데이터 포인트와의 거리를 최대로 하는 하이퍼평면을 최적 하이퍼평면(optimal hyperplane)이라고 하고, 최적 하이퍼평면과 거리가 가장 가까운 데이터를 지원 벡터(support vector)라고 한다.
수학식 3에서 최적 하이퍼평면에 대한 w와 b를 결정하려면, 다음의 수학식 4를 풀어야 한다.
Figure 112004053181871-PAT00004
여기서, ∥w∥2는 법선 벡터 w의 크기의 제곱, 즉 wT·w를 의미한다. 수학식 4를 풀기 위하여 라그랑지안 계수(Lagrangian multiplier)를 도입하면 다음의 수학식 5와 같이 된다.
Figure 112004053181871-PAT00005
결국, 수학식 5의 라그랑지안 L(w,b,α)를 w, b에 대해서는 최소로, α에 대해서는 최대로 하는 이중 문제(dual problem)을 풀어야 한다. 먼저, w, b에 대하여 라그랑지안이 최소가 되는 조건에서 다음의 수학식 6과 같은 두 개의 조건을 얻을 수 있다.
Figure 112004053181871-PAT00006
그리고, 수학식 6에서 구한 조건을 수학식 5에 대입하면, 결국 다음의 수학식 7을 푸는 문제로 귀결된다.
Figure 112004053181871-PAT00007
이렇게 구한
Figure 112004053181871-PAT00008
를 이용하여 최적 하이퍼평면에 대한 w(
Figure 112004053181871-PAT00009
) 및 최적 하이퍼평면에 대한 b(
Figure 112004053181871-PAT00010
)를 표현하면 다음의 수학식 8과 같다.
Figure 112004053181871-PAT00011
여기서, xr 및 xs는 yi가 각각 1, -1이 되는 지점에서의 임의의 지원 벡터이다. 그러면, 최적 하이퍼평면은 다음의 수학식 9와 같이 나타나고, 최적 하이퍼평면을 implicit 함수 형태로 표현했을 때의 좌변의 식(이하, '하이퍼 평면을 구성하는 식'이라 함)은 수학식 10의 f(x)가 될 것이다.
Figure 112004053181871-PAT00012
Figure 112004053181871-PAT00013
f(x)가 0이 되는 점들이 수학식 9에 나타낸 최적 하이퍼평면을 이루므로, f(x)를 계산하여 0보다 크면 특정인의 얼굴 영상과 동일한 것으로 판별될 수 있고, 0보다 작으면 특정인의 얼굴 영상과 동일하지 않은 것으로 판별될 수 있다.
지금까지는, 학습 데이터들, 즉 학습 영상에 대한 가버 필터링된 벡터들이 선형 분리될 수 있는 경우를 설명한 것으로, 상기 학습 데이터들이 선형 분리가 되지 않는다면, 커널 함수(kernel function)를 이용할 수 있다. 이 경우에 수학식 7에서의
Figure 112004053181871-PAT00014
는 다음의 수학식 11과 같이 표현된다.
Figure 112004053181871-PAT00015
여기서,
Figure 112004053181871-PAT00016
이고,
Figure 112004053181871-PAT00017
는 공간 변환 함수이다. 수학식 11의 결과를 이용하면 입력 데이터가 선형인 경우와 마찬가지로 하이퍼평면을 얻을 수 있다.
한편, 판별부(42)에서 동일인 여부를 판별하는 것은 입력된 가버 필터링된 벡터를 상기 수학식 10과 같은 최적 하이퍼평면을 구성하는 식에 대입하여 그 결과 값이 소정의 임계치를 넘는가를 기준으로 판별한다. 상기 임계치는 단순히 0으로 잡을 수도 있지만, 동일인이 아님에도 동일인으로 잘못 인식되는 경우 즉, 'false positive'인 경우를 방지하기 위해서는 상기 임계치를 0보다 큰 값으로 잡을 수 있다. 상기 임계치는 해당 얼굴 인식 케이스 별로 경험적 통계에 의하여 적절히 선택될 수 있을 것이다.
지금까지 도 1 내지 도 3의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 것으로 구현할 수도 있다. 뿐만 아니라, 상기 구성요소들은 시스템 내의 하나 또는 그 이상의 컴퓨터들을 실행시키도록 구현될 수 있다.
도 5는 본 발명의 일 실시예에 따른 이진 판별 기준 생성 과정을 나타낸 흐름도이다.
먼저, 영상 입력부(10)를 통하여 학습 영상을 입력 받고(S10), 입력된 학습 영상을 디지털 화소 값으로 변환한다.
얼굴 로컬라이저(20)는 상기 변환된 디지털 화소 값으로부터 얼굴 영역을 추출하고, 상기 얼굴 영역에서 가버 필터를 적용할 소정 개수의 특징점들을 추출한다(S20). 상기 추출된 얼굴 영역에서 특징점을 추출하기 전에, 얼굴 크기 변환 과정 또는 히스토그램 평활화 과정을 부가적으로 거칠 수도 있다.
가버 필터부(30)는 추출된 특징점들 각각에 대해 복수의 방향성 및 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 구하고, 이렇게 얻은 반응값들을 1차원 벡터 또는 어레이로 표현함으로써 가버 필터링된 벡터(Gabor-filtered vector)를 구한다. 그리고, 구한 가버 필터링된 벡터를 학습 데이터 저장부(50)에 저장한다(S30).
이 때, 만약 모든 학습 과정이 종료되었다면(S40의 예), 더 이상 학습 영상을 입력 받을 필요가 없으므로 다음 S50 단계로 진행하고, 그렇지 않다면(S40의 아니오), 계속하여 다시 학습 영상을 입력 받는 S10 단계로 진행한다.
이진 분류기(40)의 학습부(41)는 학습 데이터 저장부(50)에 저장된, 복수의 학습 영상에 대한 가버 필터링된 벡터들을 이용하여 이진 판별 기준을 생성한다(S50). 이진 분류기(40)로서 SVM을 사용한다고 하면, 학습부(41)에서 상기 이진 판별 기준을 생성하는 것은 최적 하이퍼평면을 구하는 과정이 될 것이다. 학습부(41)는 생성된 이진 판별 기준을 이진 분류기(40)의 판별부(42)에 제공한다. 이상으로 이진 판별 기준 생성 과정은 종료되고 이후부터는 인식 대상 영상 입력이 있는 경우 입력된 얼굴 영상이 특정인의 것인지, 즉 동일성을 판별하는 과정이 수행될 수 있다.
도 6는 본 발명의 일 실시예에 따라 인식 대상 영상으로부터 동일성 여부를 판단하는 과정을 나타낸 흐름도이다.
먼저, 영상 입력부(10)를 통하여 인식하고자 하는 영상, 즉 인식 대상 영상을 입력 받고(S60), 입력된 인식 대상 영상을 디지털 화소 값으로 변환한다.
그러면, 얼굴 로컬라이저(20)는 상기 변환된 디지털 화소 값으로부터 얼굴 영역을 추출하고, 상기 얼굴 영역에서 가버 필터를 적용할 소정 개수의 특징점들을 추출한다(S70). S20 과정에서와 마찬가지로 상기 추출된 얼굴 영역에서 특징점을 추출하기 전에, 얼굴 크기 변환 과정 또는 히스토그램 평활화 과정을 부가적으로 거칠 수도 있다.
그 다음, 가버 필터부(30)는 상기 추출된 특징점들 각각에 대해 복수의 방향성 및 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 구하고, 이렇게 얻은 반응값들을 1차원 벡터 또는 어레이로 표현함으로써 가버 필터링된 벡터를 구한다(S80). 그리고, 구해진 가버 필터링된 벡터를 이진 분류기(40)의 판별부(42)에 제공한다.
이진 분류기(40)의 판별부(42)는 가버 필터부(30)로부터 제공된 가버 필터링된 벡터를 학습부(41)로부터 제공된 이진 판별 기준에 적용함으로써 동일인 여부를 식별한다(S90). 이진 분류기(40)로서 SVM을 사용한다고 하면, 판별부(42)에서 동일인 여부를 판별하는 것은 입력된 가버 필터링된 벡터를 상기 최적 하이퍼평면을 구성하는 식에 대입하여 그 결과 값이 소정의 임계치를 넘는가를 기준으로 판별하는 과정이 될 것이다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
본 발명에 따르면, 얼굴 인식시에 조명의 변화에 보다 강인하게 됨으로써, 얼굴 인식의 정확성이 향상되는 효과가 있다.
또한 본 발명에 따르면, 가버 필터와 이전 분류기의 장점을 함께 살릴 수 있는 효과가 있다.

Claims (18)

  1. 입력 영상에서 추출된 얼굴 영역에서 소정 개수의 특징점을 추출하는 얼굴 로컬라이저;
    상기 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 복수의 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하고, 상기 구한 반응값들로 이루어진 1차원 벡터를 생성하는 가버 필터부;
    상기 생성된 1차원 벡터가 학습 영상에 관한 값인 경우에 상기 1차원 벡터들을 저장하는 학습 데이터 저장부; 및
    상기 저장된 1차원 벡터들을 이용하여 이진 판별 기준을 생성하고, 상기 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 상기 생성된 1차원 벡터를 상기 이진 판별기준에 적용하여 동일인 여부를 판별하는 이진 분류기를 포함하는, 얼굴 인식 장치.
  2. 제1항에 있어서, 상기 얼굴 로컬라이저는
    입력 영상으로부터 얼굴 내의 특정 구성 요소를 검출하는 얼굴 감지부;
    상기 검출된 얼굴 내의 특정 구성 요소의 위치에 근거하여 그 위치와 일정비를 유지하도록 얼굴 영역을 추출하는 얼굴 영역 추출부; 및
    상기 추출된 얼굴 영역에서 가버 필터를 적용할 소정 개수의 특징점들을 추출하는 특징점 추출부를 포함하는, 얼굴 인식 장치.
  3. 제2항에 있어서, 상기 얼굴 로컬라이저는
    상기 추출된 얼굴 영역과 이후에 적용될 가버 필터가 서로간에 일정비를 갖도록 상기 얼굴 영역과 상기 가버 필터 중 적어도 하나의 크기를 변환시키는 얼굴 크기 변환부; 및
    상기 변환된 얼굴 영역에 대해 히스토그램 평활화 과정을 거쳐 조명의 영향을 감소시킨 결과를 상기 특징점 추출부에 제공하는 영상 전처리부를 더 포함하는, 얼굴 인식 장치.
  4. 제2항에 있어서, 상기 특정 구성 요소의 위치는 상기 얼굴 내 두 눈의 위치인 것을 특징으로 하는, 얼굴 인식 장치.
  5. 제2항에 있어서, 상기 특징점은
    서로 다른 입력 얼굴 영상간에 대한 가버 필터의 적용 결과의 차이가 크게 되는 얼굴 영역 상의 점들로 선택되는, 얼굴 인식 장치.
  6. 제1항에 있어서,
    상기 복수의 방향성은 8개이고, 상기 복수의 주파수는 5개인 것을 특징으로 하는, 얼굴 인식 장치.
  7. 제1항에 있어서, 학습 데이터 저장부는
    상기 1차원 벡터를 저장할 때, 상기 1차원 벡터 및 그 벡터의 목표 출력 값을 함께 저장하는 것을 특징으로 하는, 얼굴 인식 장치.
  8. 제1항에 있어서, 상기 이진 분류기는
    SVM(Supported Vector Machines)인 것을 특징으로 하는, 얼굴 인식 장치.
  9. 제8항에 있어서, 상기 이진 분류기는
    상기 저장된 1차원 벡터들을 이용하여 구성되는 임의의 하이퍼 평면 중에서 하이퍼 평면과 가장 가까운 데이터 포인트와의 거리를 최대로 하는 최적 하이퍼평면을 구하는 학습부; 및
    상기 생성된 1차원 벡터를 상기 구한 최적 하이퍼평면을 구성하는 식에 대입한 결과 값이 소정의 임계치를 넘는가를 기준으로 동일인 여부를 판별하는 판별부를 포함하는, 얼굴 인식 장치.
  10. 제9항에 있어서,
    상기 저장된 1차원 벡터들이 선형 분리가 되지 않는 비선형 데이터인 경우에, 상기 학습부는
    커널 함수(kernel function)를 이용하여 공간 변환을 수행함으로써 최적 하이퍼평면을 구하는 것을 특징으로 하는, 얼굴 인식 장치.
  11. (a) 입력 영상에서 추출된 얼굴 영역에서 소정 개수의 특징점을 추출하는 단계;
    (b) 상기 추출된 얼굴의 특징점들 각각에 대해 복수의 방향성과 복수의 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값을 구하는 단계;
    (c) 상기 구한 반응값들로 이루어진 1차원 벡터를 생성하는 단계;
    (d) 상기 생성된 1차원 벡터가 학습 영상에 관한 값인 경우에 상기 1차원 벡터들을 저장하는 단계;
    (e) 상기 저장된 1차원 벡터들을 이용하여 이진 판별 기준을 생성하는 단계; 및
    (f) 상기 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 상기 생성된 1차원 벡터를 상기 이진 판별기준에 적용하여 동일인 여부를 판별하는 단계를 포함하는, 얼굴 인식 방법.
  12. 제11항에 있어서, 상기 (a) 단계는
    (a-1) 입력 영상으로부터 얼굴 내의 특정 구성 요소를 검출하는 단계;
    (a-2) 상기 검출된 얼굴 내의 특정 구성 요소의 위치에 근거하여 그 위치와 일정비를 유지하도록 얼굴 영역을 추출하는 단계; 및
    (a-3) 상기 추출된 얼굴 영역에서 가버 필터를 적용할 소정 개수의 특징점들을 추출하는 단계를 포함하는, 얼굴 인식 방법.
  13. 제12항에 있어서, 상기 특징점은
    실험을 통하여 얼굴 영역에서 가버 필터에 민감하게 반응한 부분을 위주로 선택되는, 얼굴 인식 방법.
  14. 제11항에 있어서, 상기 (d) 단계는
    상기 1차원 벡터에 해당하는 목표 출력 값을 함께 저장하는 단계를 포함하는, 얼굴 인식 방법.
  15. 제11항에 있어서, 상기 (e) 단계는
    상기 저장된 1차원 벡터들을 이용하여 최적 하이퍼평면을 구하는 단계를 포함하는, 얼굴 인식 방법.
  16. 제11항에 있어서, 상기 (f) 단계는
    상기 생성된 1차원 벡터가 인식 대상 영상에 대한 값인 경우에는 상기 생성된 1차원 벡터를 상기 구한 최적 하이퍼평면을 구성하는 식에 대입하는 단계; 및
    상기 대입한 결과 값이 소정의 임계치를 넘는가를 기준으로 동일인 여부를 판별하는 단계를 포함하는, 얼굴 인식 방법.
  17. 제16항에 있어서,
    상기 저장된 1차원 벡터들이 선형 분리가 되지 않는 비선형 데이터인 경우에, 상기 (e) 단계는,
    커널 함수(kernel function)를 이용하여 공간 변환을 수행함으로써 최적 하이퍼평면을 구하는 단계를 포함하는, 얼굴 인식 방법.
  18. 제11항에 기재된 방법을 컴퓨터가 판독 가능한 프로그램으로 기록한 기록 매체.
KR1020040093609A 2004-11-16 2004-11-16 얼굴 인식 방법 및 장치 KR100608595B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040093609A KR100608595B1 (ko) 2004-11-16 2004-11-16 얼굴 인식 방법 및 장치
US11/269,570 US7953278B2 (en) 2004-11-16 2005-11-09 Face recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040093609A KR100608595B1 (ko) 2004-11-16 2004-11-16 얼굴 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20060054540A true KR20060054540A (ko) 2006-05-22
KR100608595B1 KR100608595B1 (ko) 2006-08-03

Family

ID=36386327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040093609A KR100608595B1 (ko) 2004-11-16 2004-11-16 얼굴 인식 방법 및 장치

Country Status (2)

Country Link
US (1) US7953278B2 (ko)
KR (1) KR100608595B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
US8520893B2 (en) 2010-09-29 2013-08-27 Electronics And Telecommunications Research Institute Method and system for detecting object
KR101322168B1 (ko) * 2012-01-17 2013-10-28 성균관대학교산학협력단 실시간 얼굴 인식 장치
KR101400928B1 (ko) * 2013-08-06 2014-06-27 동국대학교 산학협력단 히스토그램을 이용한 고속 유사도 측정 방법 및 장치
US9665598B2 (en) 2006-12-18 2017-05-30 Samsung Electronics Co., Ltd. Method and apparatus for storing image file in mobile terminal
US10210379B2 (en) 2014-09-18 2019-02-19 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature from input image

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224017B2 (en) * 2006-01-13 2012-07-17 New Jersey Institute Of Technology Method for identifying marked content
US20080040278A1 (en) * 2006-08-11 2008-02-14 Dewitt Timothy R Image recognition authentication and advertising system
US20080040277A1 (en) * 2006-08-11 2008-02-14 Dewitt Timothy R Image Recognition Authentication and Advertising Method
KR100888476B1 (ko) * 2007-02-15 2009-03-12 삼성전자주식회사 얼굴이 포함된 영상에서 얼굴의 특징을 추출하는 방법 및장치.
US8144944B2 (en) * 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
JP2009087232A (ja) 2007-10-02 2009-04-23 Toshiba Corp 人物認証装置および人物認証方法
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
WO2010044214A1 (ja) * 2008-10-14 2010-04-22 パナソニック株式会社 顔認識装置および顔認識方法
US8792684B2 (en) 2011-08-11 2014-07-29 At&T Intellectual Property I, L.P. Method and apparatus for automated analysis and identification of a person in image and video content
CN103093176A (zh) * 2011-10-27 2013-05-08 上海德致伦电子科技有限公司 人脸检测芯片及人脸检测设备
CN103093175A (zh) * 2011-10-27 2013-05-08 上海德致伦电子科技有限公司 基于fpga的人脸识别片上***
CN102592136B (zh) 2011-12-21 2013-10-16 东南大学 基于几何图像中中频信息的三维人脸识别方法
CN103530637B (zh) * 2013-10-25 2016-08-24 合肥工业大学 一种基于人脸表情图像的ggh特征提取方法
US9514354B2 (en) 2013-12-18 2016-12-06 International Business Machines Corporation Facial analysis by synthesis and biometric matching
CN103927527A (zh) * 2014-04-30 2014-07-16 长安大学 一种基于单训练样本的人脸特征提取方法
CN104966292A (zh) * 2015-06-15 2015-10-07 广西科技大学 基于垂直方向Gabor滤波器的多图书目标分割方法
JP2017043267A (ja) * 2015-08-28 2017-03-02 修一 田山 電子キーシステム
US10460153B2 (en) * 2016-11-15 2019-10-29 Futurewei Technologies, Inc. Automatic identity detection
US10140553B1 (en) * 2018-03-08 2018-11-27 Capital One Services, Llc Machine learning artificial intelligence system for identifying vehicles
CN108460811B (zh) * 2018-03-09 2022-05-06 珠海方图智能科技有限公司 面部图像处理方法、装置及计算机设备
US10747989B2 (en) * 2018-08-21 2020-08-18 Software Ag Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
CN109447006A (zh) * 2018-11-01 2019-03-08 北京旷视科技有限公司 图像处理方法、装置、设备及存储介质
CN110210432A (zh) * 2019-06-06 2019-09-06 湖南大学 一种基于智能安防机器人非受限条件下的人脸识别方法
WO2021049824A1 (en) * 2019-09-12 2021-03-18 Samsung Electronics Co., Ltd. Method and electronic device for applying beauty effect setting
CN110826408B (zh) * 2019-10-09 2023-03-28 西安工程大学 一种分区域特征提取人脸识别方法
GB202105307D0 (en) * 2021-04-14 2021-05-26 Rewire Holding Ltd System and method for fraud prevention
CN114972294A (zh) * 2022-06-13 2022-08-30 南京大学 一种基于Gabor滤波器的肺部超声图像条纹特征的识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100360486B1 (ko) * 2000-03-07 2002-11-13 삼성전자 주식회사 가버 필터링 반응값의 차원 공간 변환을 이용한 얼굴 인식방법 및 그 장치
US6985628B2 (en) * 2002-01-07 2006-01-10 Xerox Corporation Image type classification using edge features
US7020642B2 (en) * 2002-01-18 2006-03-28 Pavilion Technologies, Inc. System and method for pre-processing input data to a support vector machine
KR20020089295A (ko) * 2002-11-11 2002-11-29 (주)인소텍 가보필터와 hmm을 이용한 얼굴인식 알고리즘

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
US9665598B2 (en) 2006-12-18 2017-05-30 Samsung Electronics Co., Ltd. Method and apparatus for storing image file in mobile terminal
US8520893B2 (en) 2010-09-29 2013-08-27 Electronics And Telecommunications Research Institute Method and system for detecting object
KR101322168B1 (ko) * 2012-01-17 2013-10-28 성균관대학교산학협력단 실시간 얼굴 인식 장치
US8934679B2 (en) 2012-01-17 2015-01-13 Sungkyunkwan University Research & Business Foundation Apparatus for real-time face recognition
KR101400928B1 (ko) * 2013-08-06 2014-06-27 동국대학교 산학협력단 히스토그램을 이용한 고속 유사도 측정 방법 및 장치
WO2015020422A1 (ko) * 2013-08-06 2015-02-12 동국대학교 산학협력단 히스토그램을 이용한 고속 유사도 측정 방법 및 장치
US10210379B2 (en) 2014-09-18 2019-02-19 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature from input image
US10817704B2 (en) 2014-09-18 2020-10-27 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature from input image

Also Published As

Publication number Publication date
US7953278B2 (en) 2011-05-31
KR100608595B1 (ko) 2006-08-03
US20060104504A1 (en) 2006-05-18

Similar Documents

Publication Publication Date Title
KR100608595B1 (ko) 얼굴 인식 방법 및 장치
CN107766786B (zh) 活性测试方法和活性测试计算设备
KR100745981B1 (ko) 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
US7912253B2 (en) Object recognition method and apparatus therefor
US8582836B2 (en) Face recognition in digital images by applying a selected set of coefficients from a decorrelated local binary pattern matrix
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
KR100714726B1 (ko) 얼굴 인식 방법 및 장치
US8103058B2 (en) Detecting and tracking objects in digital images
KR101872811B1 (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
KR100664956B1 (ko) 눈 검출 방법 및 장치
KR100828183B1 (ko) 에이다부스트와 에스브이엠 학습 분류기를 이용한 눈영역 추출기 및 추출방법
Singh et al. Facial recognition using machine learning algorithms on raspberry Pi
Swamy et al. Indian sign language interpreter with android implementation
Gangopadhyay et al. FACE DETECTION AND RECOGNITION USING HAAR CLASSIFIER AND LBP HISTOGRAM.
Tofighi et al. A robust face recognition system in image and video
Starostenko et al. Real-time facial expression recognition using local appearance-based descriptors
Suma Dense feature based face recognition from surveillance video using convolutional neural network
Jha et al. Integrating Global and Local Features for Efficient Face Identification Using Deep CNN Classifier
JP2007025899A (ja) 画像処理装置、画像処理方法
Al-Dabbas et al. Two Proposed Models for Face Recognition: Achieving High Accuracy and Speed with Artificial Intelligence
Peng et al. A software framework for PCa-based face recognition
Stawska et al. Gender recogniotion methods useful in mobile authentication applications
Mohibullah et al. Face Detection and Recognition from Real Time Video or Recoded Video using Haar Features with Viola Jones Algorithm and Eigenface Approach with PCA
Sharma et al. Lip Detection and Recognition-A Review1

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140619

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160617

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170619

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180620

Year of fee payment: 13