KR101165359B1 - 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법 - Google Patents

이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법 Download PDF

Info

Publication number
KR101165359B1
KR101165359B1 KR1020110015049A KR20110015049A KR101165359B1 KR 101165359 B1 KR101165359 B1 KR 101165359B1 KR 1020110015049 A KR1020110015049 A KR 1020110015049A KR 20110015049 A KR20110015049 A KR 20110015049A KR 101165359 B1 KR101165359 B1 KR 101165359B1
Authority
KR
South Korea
Prior art keywords
feature
image
feature point
video
frame
Prior art date
Application number
KR1020110015049A
Other languages
English (en)
Inventor
이재형
Original Assignee
(주)엔써즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔써즈 filed Critical (주)엔써즈
Priority to KR1020110015049A priority Critical patent/KR101165359B1/ko
Priority to PCT/KR2011/008604 priority patent/WO2012115332A1/ko
Priority to US14/000,266 priority patent/US9189700B2/en
Application granted granted Critical
Publication of KR101165359B1 publication Critical patent/KR101165359B1/ko
Priority to US14/941,516 priority patent/US9665789B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법에 관한 것으로서, 이미지 사이의 상호 관계를 분석하는 장치에 있어서, 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 특징 데이터 생성부; 및 상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 관계 분석부를 포함하되, 상기 관계 분석부는, 상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및 상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부를 포함하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치 및 이를 이용한 방법을 제공한다. 본 발명에 의하면, 이미지와 이미지 또는 이미지와 동영상 사이에 동일성이 있는지 또는 이미지가 어떤 동영상에 포함되는지 및 이미지가 동영상의 어떤 프레임에 해당하는가 등과 같은 상호 관계를 신속하고 효율적으로 분석할 수 있는 장치 및 방법을 제공할 수 있다.

Description

이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법{APPARATUS AND METHOD FOR ANALYZING RELATION WITH IMAGE AND IMAGE OR VIDEO}
본 발명은 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법에 관한 것으로서, 보다 상세하게는 이미지와 이미지 또는 이미지와 동영상 사이에 동일성이 있는지 또는 이미지가 어떤 동영상에 포함되는지 및 이미지가 동영상의 어떤 프레임에 해당하는가 등과 같은 상호 관계를 신속하고 효율적으로 분석할 수 있는 장치 및 방법에 관한 것이다.
이미지(image)와 이미지 또는 이미지와 동영상(video)를 비교하여 동일성 여부, 포함 여부를 판단하는 기술은 이미지 매칭(matching), 객체 추적(objection tracking) 등과 같은 컴퓨터 비전(computer vision) 분야에서 여러 가지 형태로서 제안되고 있다. 이러한 기술은 이미지 또는 동영상을 구성하는 프레임별 이미지에서 특징점을 추출하고, 추출된 특징점을 대응시켜서 비교하는 방법을 주로 사용하고 있으며, 특징점의 추출 방식과 대응되는 특징점을 비교할 때 어떠한 알고리듬을 사용하여 보다 빠른 시간 내에 정확한 결과를 제시하는 것을 목적으로 하고 있다. 알려져 있는 바와 같이, 특징점(interest point, feature point)이라 함은, 이미지의 특징을 나타낼 수 있는 점으로서, 이미지의 스케일, 회전, 왜곡 등의 변화 등에 관계 없이 이미지의 특징을 잘 설명할 수 있는 점 또는 점들의 집합을 의미한다. 이러한 특징점은 주어진 이미지의 크기 및 내용 또한 특징점 추출/결정 방법의 종류에 따라 다르지만 예컨대 사진 한장당 수천개~수만개의 특징점이 추출될 수 있다. 이러한 특징점은 이미지 프로세싱이나 컴퓨터 비전 분야에서 널리 사용되고 있는데 예컨대 특징점을 추출하고 추출된 특징점의 특징 데이터를 이용하여 두개의 이미지에서 대응되는 부분을 찾아서 물체 인식, 동작 추적, 이미지의 동일성 판별 등의 작업에 다양하게 사용된다. 그러나, 이러한 종래의 특징점 추출/결정 방법에 의하면 주어진 이미지에서 특징점을 지나치게 많이 획득하게 되는 경우가 많아서 이후의 특징점을 이용하여 이미지 비교, 객체 추적 등을 하는 후처리 과정에서 처리해야 할 데이터의 양이 과도해지고 따라서 연산 시간이 크게 소요된다는 한계점이 있다. 예컨대, 이미지의 특징점을 추출하고 추출된 특징점의 특징 데이터를 형성하는 방법으로서는 미국 특허 제6,711,293호(David G. Lowe)에 개시된 바와 같은 SIFT(Scale-Invariant Feature Transform) 알고리듬이나 SURF(Speed Up Robust Features) 알고리듬(H. Bay, T. Tuytelaars and L. van Gool (2006). "SURF: Speeded Up Robust Features". Proceedings of the 9th European Conference on Computer Vision, Springer LNCS volume 3951, part 1. pp. 404~417) 등과 같은 방법이 제안되어 있다. 그러나, 이러한 종래의 기술은 이미지당 수천 개 가량의 수십 차 특징 벡터를 필요로 하기 때문에 연산 과정이 복잡하고 처리해야 하는 데이터의 양이 많아서 계산 시간이 과도하게 소요된다는 문제가 있어서 대량의 데이터를 처리해야 하는 경우에는 많은 문제점을 가지고 있다. 따라서, 보다 적은 양의 특징점을 사용함으로써 연산 시간 및 처리 데이터의 양을 줄이는 동시에 정확한 결과를 제공할 수 있는 기술의 개발이 요망되고 있다.
특히, 최근에는 인터넷과 모바일 기술 및 환경의 발전과 함께 네트워크 전송 속도의 향상에 따라 동영상이나 이미지 등과 같은 멀티미디어 데이터의 소비가 현저하게 증가하고 있다. 예컨대, 드라마나 영화와 같은 동영상 데이터를 시청할 수 있는 웹 사이트가 널리 사용되고 있으며, 각종 동영상 데이터를 사용자가 직접 업로드하고 검색하고 공유하는 등의 서비스가 이루어질 수 있는 동영상 커뮤니티 사이트도 급속히 증가하고 있다. 또한, 인터넷상의 포털 사이트나 UGC(User Generated Contents) 사이트, 블로그, 카페, 웹하드 사이트 등과 같은 다양한 채널을 통해 이미지나 동영상과 같은 멀티미디어 서비스가 제공되고 있다. 더욱이, 최근에는 스마트폰의 보급, 무선랜 환경의 증가 등과 같은 모바일 환경의 발달에 힘입어 모바일 환경에서도 멀티미디어 데이터를 소비하는 비율도 기하 급수적으로 증가하는 추세이다. 이와 같이 이미지 또는 동영상이 특수한 분야에서만 사용되는 것이 아니라 웹 환경에서도 일반적으로 널리 이용되고 있는 추세에 따라, 이미지와 이미지 또는 이미지와 동영상 사이의 관계를 보다 신속하고 정확하게 판별함으로써, 이들과 관련된 각종 부가 서비스에 이용할 수 있도록 하는 기술의 개발이 요망되고 있다.
본 발명은 상기한 바와 같은 점을 감안하여 안출된 것으로서, 이미지와 이미지 또는 이미지와 동영상 사이에 동일성이 있는지 또는 이미지가 어떤 동영상에 포함되는지 및 이미지가 동영상의 어떤 프레임에 해당하는가 등과 같은 상호 관계를 신속하고 효율적으로 분석할 수 있는 장치 및 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 이미지 및 동영상의 특징을 나타내는 특징 데이터를 종래의 방식에 비하여 간편하고 효율적으로 생성할 수 있으며, 이러한 특징 데이터를 이용하여 이미지와 이미지 또는 이미지와 동영상 사이의 동일성 여부의 비교 검색과 같은 관계 분석을 현저하게 빠른 시간 내에 수행할 수 있도록 하는 장치 및 방법을 제공하는 것을 또 다른 목적으로 한다.
또한, 본 발명은 이미지와 이미지 또는 이미지와 동영상의 비교시에 확률 함수에 기초하여 신뢰도를 판단함으로써, 비교 검색의 신뢰성을 높이고 비교 검색 결과의 확률적인 값도 함께 제공할 수 있도록 하는 장치 및 방법을 제공하는 것을 또 다른 목적으로 한다.
상기한 바와 같은 과제를 해결하기 위하여 본 발명은, 이미지 사이의 상호 관계를 분석하는 장치에 있어서, 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 특징 데이터 생성부; 및 상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 관계 분석부를 포함하되, 상기 관계 분석부는, 상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및 상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부를 포함하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치를 제공한다.
여기에서, 상기 신뢰도 추정부는, 상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하도록 구성할 수 있다.
또한, 상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지 사이의 관계 분석 신뢰도를 추정하도록 구성할 수도 있다.
또한, 상기 특징점의 쌍을 관측할 확률(p)은,
Figure 112011012231577-pat00001
(여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수,
Figure 112011012231577-pat00002
는 모든 특징점의 쌍의 방향 차이값의 평균값(
Figure 112011012231577-pat00003
),
Figure 112011012231577-pat00004
는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산될 수 있다.
또한, 상기 특징 데이터 생성부는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 특징점 결정부; 상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 특징점 방향 추정부; 및 상기 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 생성하는 특징 데이터 구성부를 포함하도록 구성할 수도 있다.
또한, 상기 특징 데이터 구성부는, 상기 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하도록 구성할 수도 있다.
또한, 상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성될 수 있다.
또한, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택될 수 있다.
또한, 상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하도록 구성할 수도 있다.
또한, 상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하도록 구성할 수도 있다.
또한, 상기 특징점 결정부에서 추출되는 특징점 정보는 특징점의 강도를 포함하며, 상기 특징점 결정부는, 상기 특징점의 강도에 기초하여 특징점의 주변 영역에 위치하는 점들에 비하여 큰 강도를 갖는 점을 최종적으로 특징점으로서 결정하는 특징점 여과부를 더 포함할 수 있다.
또한, 상기 특징점 여과부는, 특징점 주변 영역에 위치하는 점들 중에서,
Figure 112011012231577-pat00005
(여기에서, c i 는 i번째 특징점, f( c i )는 i번째 특징점의 강도, R 1 ( c i )은 특징점의 소정 주변 영역의 점들의 집합,
Figure 112011012231577-pat00006
R 1 ( c i )중에서 강도의 최대값, T1은 문턱치)의 수식을 만족하는 중요점들인 R 2 ( C i ) 들을 결정하고, 수식
Figure 112011012231577-pat00007
(여기에서, #는 집합의 크기를 얻는 연산자, T2는 문턱치)를 만족하는 특징점을 최종적으로 특징점으로서 결정하도록 구성할 수도 있다.
본 발명의 다른 측면에 의하면, 이미지 사이의 상호 관계를 분석하는 방법에 있어서, 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 제1 단계; 및 상기 제1 단계에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 제2 단계를 포함하되, 상기 제2 단계는, 상기 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하고, 상기 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 방법을 제공할 수 있다.
본 발명의 또 다른 측면에 의하면, 이미지와 동영상 사이의 상호 관계를 분석하는 장치에 있어서, 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부; 동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부; 및 상기 이미지 특징 데이터와 상기 동영상 특징 데이터를 비교하여 이미지와 동영상 사이의 상호 관계를 분석하는 관계 분석부를 포함하되, 상기 관계 분석부는, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 후보 선정부; 이미지의 이미지 특징 데이터와 상기 후보 선정부에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및 상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부를 포함하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치를 제공할 수 있다.
여기에서, 상기 신뢰도 추정부는, 상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하도록 구성할 수 있다.
또한, 상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하도록 구성할 수도 있다.
또한, 상기 특징점의 쌍을 관측할 확률(p)은,
Figure 112011012231577-pat00008
(여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수,
Figure 112011012231577-pat00009
는 모든 특징점의 쌍의 방향 차이값의 평균값(
Figure 112011012231577-pat00010
),
Figure 112011012231577-pat00011
는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산될 수 있다.
또한, 상기 이미지 특징 데이터 생성부는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부; 상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및 상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부를 포함하고, 상기 동영상 특징 데이터 생성부는, 동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 프레임 선택부; 상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부; 상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및 상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부를 포함하도록 구성할 수도 있다.
또한, 상기 이미지 특징 데이터 구성부와 프레임별 특징 데이터 구성부는, 상기 이미지 특징점 결정부와 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성할 수 있다.
또한, 상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성될 수 있다.
또한, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택될 수 있다.
또한, 상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하도록 구성할 수도 있다.
또한, 상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하도록 구성할 수도 있다.
또한, 상기 동영상 특징 데이터 생성부는, 각각의 동영상에 대한 동영상의 식별자, 동영상의 프레임별 식별자, 프레임별 특징점 좌표, 특징점 방향 정보 및 이진 특징 벡터를 포함하는 동영상 특징 데이터를 생성할 수 있다.
또한, 상기 동영상 특징 데이터 생성부에서 생성되는 동영상 특징 데이터들에 대해 각 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 해쉬 생성부를 더 포함하도록 구성할 수도 있다.
또한, 상기 관계 분석부는, 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 상기 해쉬 생성부에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 해쉬 검색부를 더 포함하고, 상기 후보 선정부는, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하거나, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하도록 구성할 수 있다.
또한, 상기 이미지 특징 데이터 생성부는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부; 상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및 상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부를 포함하고, 상기 동영상 특징 데이터 생성부는, 동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임의 이미지 특징 데이터와 이전 추출 프레임의 이미지 특징 데이터를 비교하여 대응하는 특징점의 쌍을 결정하고, 상기 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 추출된 프레임과 이전 추출 프레임 사이의 관계 분석 신뢰도를 추정하여 그 결과에 기초하여 해당 프레임을 선택하는 프레임 선택부; 상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부; 상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및 상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부를 포함하도록 구성할 수 있다.
본 발명의 또 다른 측면에 의하면, 이미지와 동영상 사이의 상호 관계를 분석하는 방법에 있어서, 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성하는 제1 단계; 동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성하는 제2 단계; 및 상기 이미지 특징 데이터와 상기 동영상 특징 데이터를 비교하여 이미지와 동영상 사이의 상호 관계를 분석하는 제3 단계를 포함하되, 상기 제3 단계는, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 제3-1 단계; 이미지 특징 데이터와 상기 제3-1 단계에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 제3-2 단계; 및 상기 제3-2 단계에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상의 관계 분석 신뢰도를 추정하는 제3-3 단계를 포함하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 방법을 제공한다.
본 발명에 의하면, 이미지와 이미지 또는 이미지와 동영상 사이에 동일성이 있는지 또는 이미지가 어떤 동영상에 포함되는지 및 이미지가 동영상의 어떤 프레임에 해당하는가 등과 같은 상호 관계를 신속하고 효율적으로 분석할 수 있는 장치 및 방법을 제공할 수 있다.
또한, 본 발명에 의하면, 이미지 및 동영상의 특징을 나타내는 특징 데이터를 종래의 방식에 비하여 간편하고 효율적으로 생성할 수 있으며, 이러한 특징 데이터를 이용하여 이미지와 이미지 또는 이미지와 동영상 사이의 동일성 여부의 비교 검색과 같은 관계 분석을 현저하게 빠른 시간 내에 수행할 수 있도록 하는 장치 및 방법을 제공할 수 있다.
또한, 본 발명에 의하면, 이미지와 이미지 또는 이미지와 동영상의 비교시에 확률 함수에 기초하여 신뢰도를 판단함으로써, 비교 검색의 신뢰성을 높이고 비교 검색 결과의 확률적인 값도 함께 제공할 수 있는 효과가 있다.
또한, 본 발명에 의하면, 이미지와 이미지 또는 이미지와 동영상을 비교하여 이미지 사이의 동일성 여부와 이미지가 어떤 동영상에 속한 것인지 및 동영상의 어떤 프레임에 위치하는지의 여부와 같은 정보를 신속하고 효율적으로 판단할 수 있다. 또한, 이미지의 일부만이 제공되는 경우 또는 이미지가 다른 이미지 또는 동영상에 포함되어 있을 경우에도 유사도를 높은 신뢰성을 가지고 판정할 수 있다.
또한, 본 발명에 의하면, 종래의 방법에 비하여 보다 적은 수의 특징점과 더 가벼운 특징 벡터를 사용하여 이미지의 특징 데이터를 구현할 수 있으므로, 연산의 시간이 단축되고 작업 효율이 대폭 향상될 수 있다. 또한, 이미지의 부분이 반복되는 경우가 많은 동영상 내 프레임에 대해서도 중복을 제거한 프레임만에 대한 특징 벡터 집합을 얻을 수 있는 효과가 있다. 또한, 특징점의 방향 정보를 이용함으로써, 기존의 방법들보다 적은 수의 특징점만으로도 유사도를 높은 신뢰도로 추정할 수 있는 효과가 있다.
또한, 본 발명에 의하면, 이미지 또는 동영상의 특징점 및 특징점의 방향 정보, 크기 정보 등과 같은 정보를 함께 고려하므로, 원본 동영상이나 이미지가 회전되거나, 확대 또는 축소된 경우 등에도 동일성 여부를 검출할 수 있게 된다. 또한, 본 발명은 이미지에 포함되는 여러 특징점을 함께 고려하게 되므로, 하나의 이미지에 여러 가지 동영상이나 이미지가 한꺼번에 포함되어 있는 경우 등에도, 질의 대상 이미지가 포함된 원본 동영상 및/또는 프레임, 또는 원본 이미지를 검출할 수 있다.
도 1은 본 발명에 의한 이미지 사이의 상호 관계 분석 장치의 일실시예의 구성을 나타낸 블록도이다.
도 2는 관계 분석부(20)의 내부 구성을 나타낸 도면이다.
도 3은 본 발명의 다른 실시예에 의한 이미지 사이의 상호 관계 분석 장치의 구성을 나타낸 블록도이다.
도 4는 이진 특징 벡터의 생성 과정의 실제 예를 나타낸 화면이다.
도 5는 이진 특징 벡터의 생성 과정을 나타낸 흐름도이다.
도 6은 차분 벡터와 차차분 벡터에 기초하여 이진 특징 벡터를 생성하는 구체적인 과정의 일예를 나타낸 도면이다.
도 7은 특징 데이터 생성부(10)의 또 다른 실시예를 나타낸 도면이다.
도 8은 도 1 내지 도 7에서 설명한 바와 같은 상호 관계 분석 장치(100)에서 수행되는 이미지 사이의 상호 관계 분석 방법의 일실시예를 나타낸 흐름도이다.
도 9는 본 발명에 의한 이미지와 동영상 사이의 상호 관계 분석 장치의 일실시예의 구성을 나타낸 블록도이다.
도 10은 동영상 특징 데이터 생성부(120)의 구성의 일예를 나타낸 도면이다.
도 11은 중복되는 특징점을 제거하는 실제 예를 나타낸 것이다.
도 12는 해쉬 생성부(130)에 의해 생성되는 해쉬 테이블의 생성 과정의 일예를 나타낸 것이다.
도 13은 관계 분석부(140)의 구성의 일예를 나타낸 도면이다.
도 14은 본 발명에 의한 이미지와 동영상 사이의 상호 관계 분석 장치(200)에서 수행되는 이미지와 동영상의 상호 관계 분석 방법의 일실시예를 나타낸 흐름도이다.
이하, 첨부 도면을 참조하여 본 발명에 의한 실시예들을 상세하게 설명한다.
도 1은 본 발명에 의한 이미지 사이의 상호 관계 분석 장치의 일실시예의 구성을 나타낸 블록도이다.
도 1을 참조하면, 본 실시예의 이미지 사이의 상호 관계 분석 장치(100, 이하, '상호 관계 분석 장치'라 한다)는, 특징 데이터 생성부(10)와 관계 분석부(20)를 포함하며, 이들에 의해 이미지의 특징 데이터를 생성하고 이들을 이용하여 이미지 사이의 상호 관계, 예컨대 비교되는 이미지 사이에서 동일성이 있는지의 여부와 같은 상호 관계를 신속하고 효율적으로 분석하는 기능을 수행한다. 여기에서, '동일성'이라 함은 비교되는 이미지가 이미지의 특징의 모든 면에서 완전히 동일한 경우 뿐 아니라 크기 변화, 화소수, 색상, 회전, 스케일 등의 변화에 의해 변환된 경우를 포함한다. 예컨대, 이미지를 1/2배 축소한 경우, 이미지의 색상을 변화시킨 경우, 이미지를 시계 방향으로 30도 회전시킨 경우는 완전히 동일하지는 않지만 동일성이 있는 것으로 판단한다.
특징 데이터 생성부(10)는, 이미지의 특징점을 결정하고 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 기능을 수행하고, 관계 분석부(20)는 특징 데이터 생성부(10)에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 기능을 수행한다.
특징 데이터 생성부(10)는, 이미지의 특징점을 결정하고 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 기능을 수행하는데, 전술한 바와 같이 이미지의 특징점을 결정하고 결정된 특징점에 대해 방향 정보를 추출하고 이를 포함하여 특징 데이터를 구성하는 방법은 종래 기술에 의해 여러 가지 방식이 제안되어 있다. 도 1의 실시예에서의 특징 데이터 생성부(10)는 이러한 종래 기술에 의해 알려져 있는 방법을 그대로 사용할 수 있다. 즉, 도 1의 실시예는 어떠한 방식에 의해서건 특징점이 결정되고 특징점의 방향 정보를 포함하는 특징 데이터가 생성되기만 하면, 관계 분석부(20)는 이를 이용해서 이미지 사이의 상호 관계 즉 동일성 여부에 대한 상호 관계를 분석한다는 점을 특징으로 한다. 바꾸어 말하면, 관계 분석부(20)는 특징 데이터 생성부(10)의 구체적인 구성에 종속되지 않는다.
한편, 본 출원인에 의해 출원된 특허출원 제10-2011-0012741호에 개시된 바와 같은 이미지 특징 데이터 생성 방법을 특징 데이터 생성부(10)에 적용할 수도 있는데, 이에 대해서는 도 3 이하를 참조하여 별도 실시예로서 설명하기로 한다. 따라서, 우선 도 1의 실시예에서는 특징 데이터 생성부(10)의 구체적인 구성의 상세 설명은 생략하고 특징 데이터 생성부(10)에서 생성되는 특징 데이터를 이용하여 관계 분석부(20)에서 이미지 사이의 관계를 분석하는 방법에 대해서만 우선 설명하기로 한다.
도 2는 관계 분석부(20)의 내부 구성을 나타낸 도면으로서, 도 2를 참조하면, 관계 분석부(20)는 대응 특징점 결정부(21)와 신뢰도 추정부(22)를 포함한다.
대응 특징점 결정부(21)는 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는 기능을 수행하고, 신뢰도 추정부(22)는 대응 특징점 결정부(21)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 매칭의 신뢰도 즉, 상호 관계의 분석 신뢰도를 추정하는 기능을 수행한다.
대응 특징점 결정부(21)는 특징 데이터 생성부(10)에서 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는데, 이는 공지 기술에서 알려진 바와 같이 예컨대 특징 데이터간의 거리(distance)를 계산함으로써 결정될 수 있다. 즉, 비교되는 양 이미지의 각각의 특징점의 특징 데이터에 해밍 거리(Hamming distance), 유클리디안 거리(Euclidean distance) 등과 같은 함수를 적용하여 거리의 차이를 계산하여 거리의 차이가 소정 임계치 이하인 경우에 해당하는 특징점들을 서로 대응하는 특징점의 쌍인 것으로 결정할 수 있다. 여기에서, 공지 기술로서 널리 알려져 있는 RANSAC(RANdom Sample Consensus) 알고리듬을 이용할 수도 있다. 한편, 이미지의 좌표 사이의 변환 행렬은 일반적인 호모그래피(Homography) 변환을 비롯하여 그 특수한 경우인 회전, 평행 이동, 스케일링 등의 조합이 될 수 있다. 이와 같이, 대응 특징점 결정부(21)는 비교되는 같은 종류의 특징 데이터(특징 데이터가 어떠한 것이건간에 상관없이)의 거리 함수 등과 같은 값을 계산하는 등과 같은 방식을 사용하여 대응되는 특징점의 쌍의 집합을 결정할 수 있다. 대응 특징점 결정부(21)는 전술한 바와 같이 종래 기술에서 알려진 방법을 그대로 사용할 수 있으며 이는 본 발명의 직접적인 구성은 아니므로 이에 대한 상세 설명은 생략하기로 한다.
한편, 신뢰도 추정부(22)는 상기한 바와 같이 대응 특징점 결정부(21)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는데, 이는 다음과 같은 방법을 통해 이루어질 수 있다.
우선, 비교되는 두 이미지 사이에 서로 대응하는 특징점의 쌍들을 (p1, q1), ..., (pn, qn) 이라 하고, 각 특징점의 방향이 θ(p1), θ(q1),...과 같이 주어진다고 하자(여기서, 서로 대응하는 특징점의 쌍들의 집합은 전술한 대응 특징점 결정부(21)에서 결정된 것들이다).
만일 두 이미지가 같은 이미지이고 과도한 변환을 거치지 않았다면, 특징점의 방향 차이 추정치인
Figure 112011012231577-pat00012
는 모든 대응하는 특징점 쌍에 대해 일정한 값(두 이미지 사이의 회전 변환 각도)을 가져야 한다. 이 참값을 d 라 하고 각도를 추정하는 데 있어 랜덤한 에러가 발생할 수 있으므로 이를 확률 밀도 함수에 기초하여 모델링한 후, 그 평균값과 분산값을 이용하여 특징점의 쌍을 관측할 확률을 구할 수 있다. 확률 밀도 함수로서는 예컨대 평균이 0이고 표준 편차가 σ인 정규 분포를 사용할 수 있는데, 이 경우
Figure 112011012231577-pat00013
(평균이 d 이고 분산이 σ2인 정규 분포) 로 모델링될 수 있다.
실제로는 참값 d가 알려져 있지 않으므로 n개의 특징점 쌍을 이용하여 d를 추정하면
Figure 112011012231577-pat00014
와 같다. 이제 (p1, q1),...,(pn, qn) 의 특징점 쌍을 관측할 확률 p는
Figure 112011012231577-pat00015
와 같이 나타낼 수 있는데, 여기서 G 는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수를 나타낸다. 이와 같이 얻어진 p값 또는 p값의 함수 예컨대 log(p) 값 등을 검출 신뢰도로 사용하여 미리 설정해 놓은 임계치 Tm 과 비교하게 되면, 이미지 사이의 상호 관계의 분석 신뢰도를 추정할 수 있게 된다.
이와 같은 과정을 통해 신뢰도 추정부(22)는 대응 특징점 결정부(21)에서 결정되는 특징점의 쌍들간의 매칭의 신뢰도 즉, 상호 관계의 분석 신뢰도를 추정할 수 있게 되며, 임계치 이상인 경우에만 최종적으로 비교되는 두 이미지가 매칭되는 것 즉, 동일성이 있는 것으로 판단할 수 있게 된다. 또한, 상기 확률 p값 자체를 제공하면서 비교되는 이미지 사이의 동일성 여부를 확률적으로 제공하도록 할 수도 있음은 물론이다.
이와 같은 구성에 의하면, 대응되는 특징점의 쌍들을 특징점의 방향 정보에 기초하여 그 매칭의 신뢰도를 추정함으로써, 종래 기술에 비하여 특징점이 매우 적은 경우에도 안정적으로 신뢰도를 추정할 수 있으므로, 결과적으로 정확도를 손상시키지 않으면서도 신속하게 처리할 수 있게 된다.
도 3은 본 발명의 다른 실시예에 의한 이미지 사이의 상호 관계 분석 장치의 구성을 나타낸 블록도이다.
도 3의 실시예는, 도 1의 실시예와 비교해 볼 때, 특징 데이터 생성부(10)의 구체적인 구성에서 차이가 있다. 전술한 바와 같이, 도 1의 실시예에서는 특징 데이터 생성부(10)의 구성은 특별히 한정되지 않았으나 본 출원인에 의해 출원된 특허출원 제10-2011-0012741호에 개시된 바와 같은 이미지 특징 데이터 생성 방법을 특징 데이터 생성부(10)에 적용할 수도 있는데, 도 3의 실시예는 이러한 본 출원인에 의해 출원된 상기 특허출원에 개시된 이미지 특징 데이터 생성 방법을 특징 데이터 생성부(10)에 적용한 경우를 나타낸 것이다. 도 3의 실시예에서 관계 분석부(20)는 도 1 및 도 2에서 설명한 바와 동일하므로 상세 설명은 생략한다.
도 3을 참조하면, 특징 데이터 생성부(10)는, 특징점 결정부(11), 특징점 방향 추정부(12) 및 특징 데이터 구성부(13)를 구비한다.
특징점 결정부(11)는 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 기능을 수행한다. 여기에서, 이미지(image)라 함은, 정지 영상 데이터를 의미하며, 예컨대 jpg, bmp, tif 등과 같은 파일 포맷에 의해 표현되는 디지털 데이터를 의미한다. 또한, 상기 배경기술 항목에서 설명한 바와 같이, 이미지의 특징점(interest point, feature point)라 함은, 해당 이미지에서 다른 점들에 비해 이미지의 특징을 잘 표현할 수 있는 점들을 의미하는데, 일반적으로 스케일링(scaling), 회전, 관찰각 등의 변화 에 관계없이 이미지 상에서 항상 동일하게 검출할 수 있는 점들을 특징점으로 결정하는 것이 일반적이다.
특징점 결정부(11)는 종래 기술에 의해 알려져 있는 특징점 추출/결정 방법을 그대로 사용할 수 있는데, 예컨대 LoG(Laplacian of Gaussian) 필터나 DoG(Difference of Gaussians) 필터의 스케일 공간상의 극대/극소값을 이용하는 방법, 헤시안 매트릭스(Hessian Matrix)의 디터미넌트(determinant)를 이용하는 종래의 기술에서 알려진 방법 등을 사용하여 주어진 이미지에서 특징점이 될 수 있는 점들을 결정할 수 있다. 한편, 미국 특허 제6,711,293호(David G. Lowe)에 개시된 바와 같은 SIFT(Scale-Invariant Feature Transform) 알고리듬이나 SURF(Speed Up Robust Features) 알고리듬(H. Bay, T. Tuytelaars and L. van Gool (2006). "SURF: Speeded Up Robust Features". Proceedings of the 9th European Conference on Computer Vision, Springer LNCS volume 3951, part 1. pp. 404~417) 등은 이미지의 특징점 추출/결정을 포함하여 특징 벡터를 생성하는 전체 과정이 나타나 있는데, 여기에 개시되어 있는 이미지의 특징점 추출/결정 방법 또한 사용할 수도 있다. 즉, 본 발명에서의 특징점 결정부(11)는 이러한 종래 기술에 알려져 있는 모든 종류의 특징점 추출/결정 방법을 사용할 수 있으며, 이는 본 발명의 핵심적인 사항은 아니므로 상세 설명은 생략한다.
한편, 특징점 결정부(11)는 전술한 바와 같이 이미지의 특징점들을 찾아내는 동시에 찾아낸 특징점과 관계된 특징점의 강도나 특징점의 크기 등과 같은 기타 특징점 정보도 함께 추출한다. 이러한 특징점 정보의 종류, 구체적인 내용은 사용되는 특징점 추출/결정 방법에 따라 다를 수 있으므로, 이미지 매칭, 객체 추적, 이미지 비교 등과 같은 후처리 과정에서 사용되는 데이터에 따라 선택적으로 추출한다. 이러한 특징점 정보를 추출하는 방법 또한 종래 기술에 의하여 알려진 방법을 사용할 수 있다.
특징점의 강도는 사용된 특징점 추출/결정 방법에 따라 달라질 수 있는데, 예컨대 LoG(Laplacian of Gaussian) 필터를 사용하는 경우에는, 라플라스 연산자(Laplacian operator)를 특징점의 강도로서 사용할 수 있다. 주어진 이미지 f(x,y)가 소정 스케일 t에 대해서 가우스 커널(Gaussian Kernel)
Figure 112011012231577-pat00016
에 의해 컨볼루션되는 경우, LoG 스케일 평면(scale-space)은
Figure 112011012231577-pat00017
로 나타낼 수 있고, 이 때 라플라스 연산자(Laplacian operator)
Figure 112011012231577-pat00018
가 계산될 수 있는데, 이 라플라스 연산자에 의한 결과값은 이미지의 점의 어두운 점(blob)과 밝은 점(blob)에서 큰 값을 각각 가지게 되므로 해당 이미지가 특징점으로 사용될 수 있는지를 기본적으로 판단할 수 있는 자료가 될 수 있으며 그 값의 크기에 따라 특징점으로서의 강도를 나타내는 지표로서 사용할 수 있다.
한편, DoG(Difference of Gaussian) 필터를 사용하는 경우에도 마찬가지로 라플라스 연산자의 결과값을 특징점 강도로서 사용할 수 있다. 또한, 헤시안 매트릭스(Hessian matrix)를 사용하는 경우에는 헤시안 매트릭스의 디터미넌트(determinant) 값을 특징점 강도로서 사용할 수 있다. 이와 같이, 특징점의 강도는, 종래 기술에 의하여 이미지의 특징점을 추출/결정하는데 사용되는 판별식에 기초한 정보를 사용할 수 있다.
한편, 이미지의 특징점의 크기란, 해당 특징점이 이미지에서 차지하는 영역의 정보를 나타내는 것으로서, 예컨대 사각형인 경우 각 변의 길이, 원인 경우에는 반지름의 길이 등과 같이 표현될 수 있다. 이러한 특징점의 크기 또한 종래 기술에서 사용되는 방법을 사용할 수 있는데, 예컨대 전술한 바와 같은 LoG(Laplacian of Gaussian) 필터를 사용하는 경우에는 특징점의 최대 강도를 나타내는 스케일 t(또는
Figure 112011012231577-pat00019
)값의 k배(여기서, k는 4,6 등과 같은 임의의 상수)와 같은 값을 사용할 수 있다.
다시 도 3을 참조하면, 특징점 방향 추정부(12)는 특징점 결정부(11)에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 기능을 수행한다. 이는 종래의 기술에서 알려진 그래디언트(gradient) 기반의 다양한 방법들을 사용할 수 있다. 예컨대, 특징점 주변 일정 영역의 모든 점들에 대해서 각 점 주변의 그래디언트를 계산하고 그 방향을 평균냄으로써 특징점의 방향 정보를 추정해 낼 수 있다. 이러한 방법에 의하면, 특징점이 임의의 회전 변환을 거친 경우에도 원래의 방향을 추정할 수 있게 된다. 특징점 방향 추정부(12)에서 특징점의 방향을 추정하는 방법 또한 종래 기술에 의해 알려진 것을 이용할 수 있으며 본 실시예의 직접적인 구성은 아니므로 상세 설명은 생략한다.
특징 데이터 구성부(13)는 특징점 결정부(11)에서 결정된 특징점 각각에 대하여, 특징점 정보와 특징점 방향 추정부(12)에서 추정된 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 생성된 이진 특징 벡터를 포함하여 이미지의 특징 데이터를 구성하는 기능을 수행한다. 여기에서, 특징 데이터라 함은, 일반적으로 주어진 이미지에 대해서 추출/결정된 특징점과 관련된 정보를 기술하는 데이터(descriptor)를 의미하는데, 특징 데이터 구성부(13)는 이러한 특징 데이터를 이진 특징 벡터의 형태로 생성한다. 여기에서, 특징점 정보는 특징점 결정부(11)에서 추출 및 획득되고 방향 정보는 전술한 특징점 방향 추정부(12)에 의해 획득된다.
특징 데이터 구성부(13)는 관계 분석부(20)에서 특징 데이터를 이용하여 신속한 처리가 이루어질 수 있도록 하는 동시에 해당 특징점의 특징을 잘 나타내면서도 비교적 적은 용량의 데이터로써 특징 데이터를 생성할 수 있도록 이진 특징 벡터를 생성하고 이를 포함하여 특징 데이터를 구성하게 된다. 이러한 이진 특징 벡터는 특징점들 각각에 대하여 강인성을 가지면서 특징점에 고유한 특징을 변질시키지 않아야 한다.
특징 데이터 구성부(13)에서 이진 특징 벡터를 생성하는 과정을 도 4 및 도 5를 참조하여 설명한다. 도 4는 이진 특징 벡터의 생성 과정의 실제 예를 나타낸 화면이고 도 5는 이진 특징 벡터의 생성 과정을 나타낸 흐름도이다.
도 4 및 도 5를 참조하면, 우선 전술한 바와 같은 과정을 통해 결정된 특징점들 각각에 대하여, 특징점의 크기 및 방향 정보를 이용하여, 특징점을 포함하는 주변 이미지 영역을 예컨대 사각형 형태로 생성하고, 이들을 같은 방향으로 정렬한다(S500, S510)). 여기에서, 특징점을 포함하는 주변 이미지 영역을 사각형 형태로 생성하는 것은 특징점 결정부(11)에서 추출한 특징점 정보에 포함된 크기 정보를 이용할 수 있다. 예컨대, 크기 정보로서 한변의 길이(정사각형인 경우), 가로 및 세로변의 길이(직사각형인 경우), 반지름(원인 경우) 등과 같은 정보를 이용하여 사각형 형태의 주변 이미지 영역을 생성할 수 있다. 예컨대, 한변의 길이가 주어진 경우 해당 변의 길이에 따른 정사각형을 생성하고 가로 및 세로변의 길이가 주어진 경우 둘 중 최대값 또는 최소값을 변의 길이로 하는 정사각형을 생성할 수 있다. 또한, 반지름값이 주어진 경우 반지름을 변의 길이로 하는 정사각형을 생성할 수 있다. 또한, 생성된 주변 이미지 영역을 같은 방향으로 정렬하는 것은, 대상 이미지가 다른 이미지의 회전한 형태인 경우에도 같은 특징 벡터를 얻기 위함이다. 한편, 특징점을 포함하는 주변 이미지 영역을 생성할 때 특징점의 크기 정보에 기초하지 않고 미리 설정된 크기 예컨대 특징점 주변 ±10 이내의 좌표를 기준으로 사각형 형태로 생성하는 방법도 가능하다.
다음으로 생성 및 정렬된 이미지 영역들 각각을 도 4의 우측에 나타낸 바와 같이 N×N의 부 영역으로 나눈다(S520). 이들 부 영역들의 이미지 밝기를 평균내어 얻은 N×N개의 값을 I(i), i= 1,2,....,N2라 하고, 아래의 수식에 따라 밝기 차분 벡터와 차차분 벡터를 정의한다(S530).
차분 벡터 : D(i,j)=I(i)-I(j), i,j = 1,2,...,N2
차차분 벡터 : E(i,j,k,l) = D(i,j)-D(k,l) i,j,k,l = 1,2,...,N2
다음으로, 특징 데이터 구성부(13)는 상기 수식에 의해 정의된 차분 벡터 D(i,j)와 차차분 벡터 E(i,j,k,l) 중 적어도 어느 하나 이상을 선택하고 이에 기초하여 이진 특징 벡터를 생성한다(S540).
차분 벡터와 차차분 벡터에 기초하여 이진 특징 벡터를 생성하는 구체적인 과정의 일예를 도 6에 나타내었다.
도 6의 예는 이진 특징 벡터를 M비트로 구성하는 경우에 대한 것으로서, 도 6의 각 과정을 M회 반복하게 된다. 이를 위하여, 우선 최초로 i=1로 설정하고, 주어진 특징점에 대해 정의된 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나 이상을 선택하고 상기 정의된 수식에 의해 차분 벡터와 차차분 벡터를 생성한다(S541). 정의된 차분 벡터와 차차분 벡터 중에서 어떤 것을 선택할 것인지는 미리 설정해 둘 수 있는데, 예컨대 미리 다수의 샘플 이미지를 통해 이진 특징 벡터를 생성해 두고 이들의 통계치에 근거하여 어떠한 차분 벡터와 차차분 벡터를 선택하는 것이 이미지의 변화에 관계없이 강인한 특성을 나타내는가를 결정한 후 그러한 기준에 따라 해당하는 벡터를 선택할 수 있다. 또한, 차분 벡터 중에서만 선택할 수도 있고 차차분 벡터에서만 선택할 수도 있다. 또한, 차분 벡터에서 몇개를 선택할지 차차분 벡터에서 몇개를 선택할지의 여부도 경우에 따라 달라질 수 있다. 예컨대, 차분 벡터 중에서 3개를 선택하고 차차분 벡터에서 2개를 선택하거나 차분 벡터에서 2개를 선택하고 차차분 벡터에서 3개를 선택하는 것도 가능하다.
또한, 차분 벡터와 차차분 벡터 중 적어도 어느 하나를 선택하고 생성하는 것은 이진 특징 벡터의 비트수인 M회에 걸쳐 이루어져야 하는데 선택되는 차분 벡터와 차차분 벡터들의 집합은 서로 달라야 하므로, 각 회수에 대응하여 서로 다른 차분 벡터와 차차분 벡터의 집합이 선택되도록 미리 설정해 두는 것이 바람직하다.
다음으로, 선택 및 생성된 차분 벡터와 차차분 벡터들에 대해 선형 조합(linear combination) 계산을 수행한다(S542). 예컨대, 선택 및 생성된 차분 벡터가 D(1,2), D(3,4), E(1,2,4,5), E(3,5,6,7)의 4개인 경우 이들 각각의 값(이들은 전술한 바와 같이 각각 밝기의 평균값의 차분값과 차차분값을 가지게 된다)에 대해 선형 조합을 계산한다. 즉, 선형 조합인 경우, aD(1,2) + bD(3,4) + cE(1,2,4,5) + dE(3,5,6,7)와 같은 표현되는 선형 조합을 계산할 수 있다(여기서, a,b,c,d는 임의의 계수). 예컨대 차분 벡터가 5개, 차차분 벡터가 5개 존재하는 경우, 이들의 선형 조합의 공간은 실제 무한할 수 있는데, 이들로부터 해당 특징점을 다른 특징점들과 쉽게 구분지을 수 있도록 하는 특정 조합들이 존재한다. 이러한 특정 조합을 미리 다수의 샘플 이미지를 통해 테스트해서 결정해 두고 이러한 테스트 결과값의 통계적 추론에 기초하여 어떠한 선형 조합을 수행할 것인지를 결정해 놓을 수 있다. 한편, 상기 단계(S542)에서 선형 조합 이외에 곱셈 등과 같은 비선형 연산을 포함하는 비선형 조합(nonlinear combination)을 수행할 수도 있음은 물론이며, 경우에 따라서는 선형 조합과 비선형 조합을 혼합하여 사용하는 것도 가능할 수 있다.
이와 같은 과정을 거치게 되면, 그 결과값을 얻게 되는데 그 결과값이 소정의 임계치 예컨대 0보다 큰지 여부를 판단하고(S543), 0보다 큰 경우에는 해당 비트 즉, i번째 비트에 1을 할당하고(S544), 0보다 작은 경우에는 해당 비트 즉, i번째 비트에 0을 할당한다(S545). 이와 같이 하면, 이진 특징 벡터 중에서 i번째 비트의 값이 결정되게 된다.
다음으로, i=M인지(즉, 마지막 비트인지)를 판단하고(S546), 마지막 비트가 아닌 경우 i를 증가시켜서(S547) 상기 단계(S541) 내지 단계(S547)을 반복 수행한다. 마지막 비트인 경우에는 종료하게 된다(S548).
도 6과 같은 과정을 모두 완료하게 되면, 주어진 특징점에 대해 각각의 값이 0 또는 1로 표현되는 M비트로 구성되는 이진 특징 벡터가 생성되게 된다. 도 4의 우측에 나타낸 이진 특징 벡터는 이와 같은 과정을 거쳐서 생성된 것으로서 총 6비트로 구성되며 각각의 비트에는 0 또는 1이 할당되어 있음을 알 수 있다.
한편, 이진 특징 벡터를 생성한 이후, 각각의 비트에 대해 중요도를 기준으로 정렬 과정을 더 수행할 수 있다. 차분 벡터와 차차분 벡터의 선형 또는 비선형 조합 중에서 다른 조합들보다 스케일링, 크기, 각도 등의 변환 등에 보다 강인한 조합이 존재할 수 있는데 이러한 강인성을 갖는 조합을 미리 다수의 샘플 이미지를 통해 테스트하여 결정해 두고 이를 이용하여 그 순서 즉 강인한 순서에 따라 이진 특징 벡터들을 정렬하는 과정을 수행할 수도 있다. 즉, 도 6과 같은 과정을 수행하게 되면, M비트의 값이 "001010"으로 표현되는 경우, 이를 중요도에 따라 "011001"과 같이 정렬할 수 있으며, 도 4의 우측에 이러한 이진 특징 벡터를 나타내었다. 이와 같이 이진 특징 벡터를 중요도 순에 따라 정렬하게 되면 후처리 과정에서 중요도 순서에 따라 데이터의 비교 및 검색이 중요도를 기준으로 신속하게 처리될 수 있는 장점이 있다.
이러한 과정을 통해, 이진 특징 벡터가 각각의 특징점에 대하여 생성되면, 특징 데이터 구성부(13)는 이들 이진 특징 벡터를 포함하여 특징점의 다른 특징점 정보를 포함하여 최종적으로 이미지의 특징 데이터를 생성하게 된다. 특징 데이터에 포함되는 다른 특징점 정보는 예컨대 특징점의 x 좌표값, y 좌표값, 크기 정보 및 방향 정보 중에서 적어도 어느 하나 이상을 포함할 수 있다. 이들 정보를 모두 포함할 수도 있고 이들 중 일부만을 선택하여 구성할 수도 있으며, 이는 관계 분석부(20)에서의 처리 과정에서의 조건에 따라 다르게 설정할 수 있다. 예컨대, 상기와 같은 다른 특징점 정보를 모두 포함하여 구성되는 경우 최종적으로 생성되는 특징 데이터는 특징점 각각에 대한 (x 좌표, y 좌표, 크기, 방향, 이진 특징 벡터)로 구성되는 특징점들의 집합일 수 있다. 도 4의 우측에 나타낸 이진수는 해당 특징점의 이진 특징 벡터를 의미하며, 이진수 위쪽의 (x,y,s,θ)는 각각 (x 좌표, y 좌표, 크기, 방향)을 의미한다. 물론, 후처리 과정에서 크기 정보가 필요없는 경우에는 이를 제외하고 나머지 정보만으로 특징 데이터를 구성하는 것도 가능하다.
한편, 도 4 내지 도 6의 실시예에서는 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터를 정의해두고(도 5의 단계(S530)), 이들 중에서 전술한 바와 같은 기준에 따라 어느 하나 이상을 선택하고 선택된 차분 벡터와 차차분 벡터들의 선형 또는 비선형 조합을 생성하여 이진 특징 벡터를 생성하는 경우에 대하여 설명하였으나, 부영역들의 밝기값의 평균값 전부에 대해서 미리 차분 벡터와 차차분 벡터를 생성해 두는 실시예도 가능하다. 이 경우에는 도 5의 단계(S530)에서 미리 차분 벡터와 차차분 벡터를 전체 부영역들의 밝기값의 평균값에 대해서 모두 생성해 둔 후, 도 6의 단계(S541)에서 생성되어 있는 차분 벡터와 차차분 벡터 중에서 전술한 바와 같은 기준으로 선택 과정만을 수행하게 된다. 즉, 단계(S541)에서 차분 벡터와 차차분 벡터를 계산하여 생성하는 과정을 생략할 수 있다.
도 4 내지 도 6에 나타낸 바와 같은 과정을 수행하게 되면, 이진 특징 벡터를 포함하는 이미지의 특징 데이터가 최종적으로 생성되는데, 관계 분석부(20)는 이러한 이미지의 특징 데이터를 이용하여 도 1 내지 도 2에서 설명한 바와 같은 과정을 통해 이미지간의 상호 관계를 분석하게 된다.
도 7은 특징 데이터 생성부(10)의 또 다른 실시예를 나타낸 도면이다.
도 7의 실시예의 특징 데이터 생성부(10)는 도 3의 특징 데이터 생성부(10)와 비교해 볼 때, 특징점 여과부(14)가 특징점 결정부(11)에 더 포함되어 있다는 점에서만 차이가 있다.
특징점 여과부(14)는 특징점 결정부(11)에서 결정된 특징점 중에서 적어도 하나 이상의 특징점을 최종적으로 특징점으로서 결정하는 기능을 수행하는데, 이를 위하여 특징점 결정부(11)에서 전술한 바와 같이 특징점 정보로서 추출되는 특징점의 강도에 기초하여 특징점의 주변 영역에 위치하는 점들에 비하여 큰 강도를 갖는 점을 최종적으로 특징점으로서 결정할 수 있다. 특징점 결정부(11)에서 결정되는 특징점들은 통상적으로 이미지당 적게는 수십개에서 많게는 수천, 수만개에 이를 수 있기 때문에 대용량 및 고속 처리를 위해서는 특징점 중에서 다른 특징점들에 비해 보다 분명한 특징을 갖는 특징점들을 선별할 필요가 있으며, 특징점 여과부(14)는 특징점 결정부(11)에서 결정된 특징점들 중에서 다른 특징점들에 비해 보다 분명하고 명확한 특징을 갖는 특징점들을 선별하고 이들을 최종 특징점으로 선택하는 기능을 수행한다. 즉, 특징점 여과부(14)는 특징점의 갯수를 줄이는 기능을 수행하게 된다.
특징점 여과부(14)는 다음과 같은 방법에 의하여 특징점들을 선별할 수 있다. 예컨대, 크기가 W×H인 이미지에 대해서, 특징점 결정부(11)에서 결정된 특징점들 c 1 , c 2 ,..., c N 에 대해 i번째 점의 강도를 f( c i )라 하고, 각 점의 주변 영역 예컨대 min(W,H)/10 반경에 속하는 점들의 집합을 R 1 ( c i )라 하면, 이 때, 점 c i 가 특징점으로서 최종 선택될 수 있는지의 여부는 우선 해당 점 주변의 비교적 중요한 점들 R 2 ( C i )들을 수식
Figure 112011012231577-pat00020
에 의해서 찾고, 이들을 이용하여 정의된 다음 수식을 만족하는 특징점들을 최종 특징점으로서 결정할 수 있다.
Figure 112011012231577-pat00021
여기서, #는 집합의 크기를 얻는 연산자이고, T1과 T2는 최적화 가능한 문턱치이다. 상기와 같은 수식을 사용하면 임의의 특징점들 주변의 중요한 점들인 R 2 (C i )들을 찾아내고 이들의 강도를 이용하여 해당 특징점이 주변의 중요한 점들의 강도에 비하여 상대적으로 큰 강도를 갖는 경우에 해당 특징점을 최종 특징점으로서 최종적으로 선택할 수 있다. 즉, 국소적으로 큰 변화가 있는 이미지나 복잡한 텍스쳐를 가진 이미지에 대해서도 안정적으로 수가 적으면서도 전체 영역을 잘 표현하는 특징점을 선별할 수 있으며, 특징점 결정부(11)에서 결정된 특징점의 수를 수십에서 수백 개 정도로 감소시킬 수 있다. 여기에서, 강도라 함은, 앞서 특징점 결정부(11)에서 설명한 바와 같이 라플라시안 연산자 등과 같이 특징점 결정부(11)에서 사용되는 알고리듬에서 특징점 여부를 판별하기 위하여 사용되는 수식의 값을 이용할 수 있다.
도 8은 도 1 내지 도 7에서 설명한 바와 같은 상호 관계 분석 장치(100)에서 수행되는 이미지 사이의 상호 관계 분석 방법의 일실시예를 나타낸 흐름도이다.
도 8을 참조하면, 우선, 특징 데이터 생성부(10)는 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성한다(S100).
다음으로, 관계 분석부(20)는 상기 특징 데이터 생성부(10)에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는데, 이는 대응 특징점 결정부(21)가 특징 데이터 생성부(10)에서 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는 단계(S110)와, 신뢰도 추정부(22)가 대응 특징점 결정부(21)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 단계(S120)로 이루어진다. 상기 각각의 단계(S100) 내지 단계(S120)은 도 1 내지 도 7에서 설명한 바와 같으므로 상세 설명은 생략한다.
도 9는 본 발명에 의한 이미지와 동영상 사이의 상호 관계 분석 장치의 일실시예의 구성을 나타낸 블록도이다.
도 9의 실시예의 이미지와 동영상 사이의 상호 관계 분석 장치(200)는 이미지 특징 데이터 생성부(110), 동영상 특징 데이터 생성부(120), 해쉬 생성부(130) 및 관계 분석부(140)를 포함하며, 이러한 구성에 의하여 이미지와 동영상 사이의 상호 관계를 분석한다. 도 9의 실시예는 도 1 내지 도 8에서 설명한 실시예와 비교해 볼 때, 도 1 내지 도 8의 실시예는 이미지와 이미지를 비교하는 것이지만, 도 9 이하의 실시예는 이미지와 동영상 사이에서의 상호 관계를 분석한다는 점에서 차이가 있다.
도 9를 참조하면, 이미지 특징 데이터 생성부(110)는 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성하는 기능을 수행하는데, 이는 도 1 내지 도 8의 예에서의 특징 데이터 생성부(10)와 동일한 것이므로 상세 설명은 생략한다.
동영상 특징 데이터 생성부(120)는 동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성하는 기능을 수행한다.
도 10은 동영상 특징 데이터 생성부(120)의 구성의 일예를 나타낸 도면이다. 도 10을 참조하면, 동영상 특징 데이터 생성부(120)는, 프레임 선택부(121), 프레임별 특징점 결정부(122), 프레임별 특징점 방향 추정부(123) 및 프레임별 특징 데이터 구성부(124)를 구비할 수 있다.
프레임 선택부(121)는 동영상 각각에 대하여 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 기능을 수행한다. 즉, 프레임 선택부(121)는 동영상에서 일정 시간 간격으로 프레임을 추출하고, 추출된 해당 프레임과 이전에 추출되어 있는 프레임들 중 적어도 어느 하나 이상의 프레임과의 차이를 계산한다. 이 때, 이전 추출 프레임은 바로 이전 프레임만일 수도 있고, 소정 갯수 이전 예컨대 이전 5번째 프레임까지일 수도 있다. 추출된 해당 프레임과 이전 추출 프레임과의 차이는 단순히 프레임의 같은 위치의 픽셀값 간의 차이의 절대값의 합일 수 있다. 또한, 종래 기술에 의하여 알려져 있는 옵티컬 플로우(Optical flow)를 추정하여 이를 이용하여 보정된 이미지간의 픽셀값 사이의 차이의 절대값의 합일 수도 있다. 다음으로, 프레임 선택부(121)는 이전 추출 프레임과의 차이가 미리 설정해 둔 임계치 이상인지를 판단하고, 임계치 이상인 경우 해당 프레임을 선택한다. 여기서 선택되는 해당 프레임은 도 10의 후술하는 구성에 의해서 프레임별로 특징점을 결정하고 특징점의 방향을 추정하고 특징 데이터틀 구성하게 되며, 이와 같은 과정을 동영상에서 일정 시간 간격으로 추출한 모든 프레임에 대해서 반복 수행함으로써 동영상 전체에 대한 특징 데이터(즉, 프레임별 특징 데이터의 집합)를 생성하게 된다. 이 때, 이전 프레임 하나와만 비교하는 경우에는 전술한 바와 같은 차이를 한번만 계산하여 해당 프레임을 선택할지의 여부를 결정하고, 예컨대 이전 5번째 프레임까지와 비교하는 경우에는 각각의 프레임과의 차이 중에서 적어도 어느 하나가 임계치 보다 큰 경우에 해당 프레임을 선택하도록 구성할 수도 있다.
한편, 프레임 선택부(121)는 상기한 바와 같은 방법을 사용하지 않고, 전술한 바와 같은 신뢰도 추정부(22)에서 사용하는 신뢰도 추정 방식을 이용하여 이전 추출 프레임들과를 비교함으로써 해당 프레임의 차이를 계산하고 그 결과에 따라 해당 프레임을 선택할 수 있다. 즉, 프레임 선택부(121)는 동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임의 이미지 특징 데이터를 우선 생성하고, 이 이미지 특징 데이터와 이전 추출 프레임에 대해서 미리 생성되어 있는 이미지 특징 데이터를 비교하여 대응하는 특징점의 쌍을 결정하고, 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 전술한 신뢰도 추정부(22)에서 사용하는 방법을 이용하여 추출된 프레임과 이전 추출 프레임 사이의 관계 분석 신뢰도를 추정하여 그 결과에 기초하여 해당 프레임을 선택할지 여부를 결정하는 방법을 사용할 수도 있다.
프레임별 특징점 결정부(122)는 상기 프레임 선택부(121)에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 기능을 수행하는데, 이는 도 1 내지 도 8에서 설명한 특징점 결정부(11)와 동일한 것이며, 다만, 프레임별로 이러한 기능을 수행한다는 점에서 프레임별 특징점 결정부(122)라는 명칭을 사용했음을 유의해야 한다. 동영상은 프레임의 집합으로 볼 수 있으며, 각각의 프레임은 도 1 내지 도 8의 실시예에서 설명한 이미지와 동일한 것이기 때문이다. 또한, 프레임별 특징점 방향 추정부(123)과 프레임별 특징 데이터 구성부(124) 또한 도 1 내지 도 8에서 설명한 특징점 방향 추정부(12) 및 특징 데이터 구성부(13)와 동일한 것이다. 즉, 프레임별 특징점 결정부(122), 프레임별 특징점 방향 추정부(123), 프레임별 특징 데이터 구성부(123)는 도 1 내지 도 8의 실시예에서 설명한 특징점 결정부(11), 특징점 방향 추정부(12), 특징 데이터 구성부(13)와 기능이 완전히 동일하되, 다만 동영상을 구성하는 프레임들 중에서 프레임 선택부(121)에서 선택된 프레임에 대해서 해당 기능을 수행한다는 점에서만 차이가 있다. 따라서, 이들에 대한 상세 설명은 생략한다.
한편, 도 10에서 프레임별 특징 데이터 구성부(124)에서 프레임별로 특징 데이터를 구성하는 경우, 이전 프레임과의 중복 특징점을 제거하고 비중복 특징점만에 대해서 특징 데이터를 생성할 수도 있다. 도 11은 중복되는 특징점을 제거하는 실제 예를 나타낸 것이다. 도 11에서 좌측 사진은 이전 프레임이고 우측 사진은 현재 프레임을 나타내는데, 현재 프레임인 우측 사진에서 붉은 색으로 표시된 특징점만이 비중복 특징점으로서 기록되고, 검은색으로 표시된 부분들은 이전 프레임(좌측 사진)과 중복되는 특징점으로서 제거된 것임을 나타낸다.
한편, 도 10에서는 동영상 특징 데이터 생성부(120)가 프레임 선택부(121), 프레임별 특징점 결정부(122), 프레임별 특징점 방향 추정부(123), 프레임별 특징 데이터 구성부(123)를 별도로 구비하는 경우를 나타내었으나, 전술한 바와 같이 프레임별 특징점 결정부(122), 프레임별 특징점 방향 추정부(123), 프레임별 특징 데이터 구성부(123)는 도 1 내지 도 8의 실시예에서 설명한 특징점 결정부(11), 특징점 방향 추정부(12), 특징 데이터 구성부(13)와 기능이 동일하므로 이들을 생략하고 이들이 수행할 기능은 이미지 특징 데이터 생성부(110)를 통해 수행하도록 구성할 수도 있다. 이러한 경우, 동영상 특징 데이터 생성부(120)는 프레임 선택부(121)를 구비하며, 이미지 특징 데이터 생성부(110)를 통해 각각의 선택된 프레임별로 해당 기능을 수행하여 프레임별 특징 데이터를 생성하게 된다.
이와 같은 과정을 거치면 동영상 특징 데이터 생성부(120)는 동영상을 구성하는 프레임들 중 선택된 프레임들에 대한 프레임별 이미지 특징 데이터의 집합을 얻게 되고 이에 의하여 동영상 특징 데이터를 생성하게 된다. 도 1 내지 도 8에서 설명한 바와 같이, 이미지의 특징 데이터는 예컨대 (x 좌표, y 좌표, 크기, 방향, 이진 특징 벡터)로 구성되는 특징점들의 집합인 특징 데이터로 나타낼 수 있는데, 동영상 특징 데이터 생성부(120)에 의해 생성되는 동영상 특징 데이터는 여기에 더하여 해당 동영상의 식별자(ID)로서 예컨대 해당 동영상의 번호 및 해당 프레임의 식별자(ID)로서 예컨대 해당 프레임의 번호를 포함하도록 구성할 수 있다. 이와 같이 구성되는 프레임의 이미지 특징 데이터는 다음과 같을 수 있다.
(vi, fj, xk, yk, sk, θk, 이진 특징 벡터)
여기에서, vi는 i번째 동영상을 의미하며, fj는 해당 동영상 즉, i번째 동영상의 j번째 프레임을 의미하고, xk, yk, sk, θk 는 각각 k번째 특징점의 x좌표, y좌표, 크기, 방향을 나타낸다. 이진 특징 벡터는 전술한 바와 같이 생성되며 예컨대 "011101"등과 같이 표현될 수 있다. 이러한 동영상 특징 데이터는 동영상 ID, 프레임 ID를 제외하고는 전술한 이미지 특징 추출부(10)에서 생성되는 이미지 특징 데이터와 형태가 동일하므로 후술하는 해쉬 생성부(30)를 참조하여 이미지와 동영상의 비교를 효율적으로 또한 신속하게 이루어질 수 있도록 한다.
한편, 동영상이 복수인 경우에는 동영상 특징 데이터 생성부(120)는 전술한 바와 같은 각각의 동영상에 대한 동영상 특징 데이터를 생성해 두고 이를 동영상 특징 데이터베이스(미도시)에 저장해 두고, 이미지와 후술하는 바와 같은 관계 분석부에 의해 비교를 수행함으로써 이미지에 대응되는 동영상이 어떤 것인지 또한 동영상 중 어떤 프레임에 해당하는 것인지 또는 동일성이 있는지 등과 같은 상호 관계를 분석하여 그 결과를 제공해 줄 수 있다.
다시 도 9를 참조하여 해쉬 생성부(130)에 대해서 설명한다. 해쉬 생성부(130)는 동영상 특징 데이터 생성부(120)에서 생성된 동영상 특징 데이터들에 대해 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 기능을 수행하는데, 이는 후술하는 해쉬 검색부(141)에 의해 보다 신속한 검색을 수행하기 위한 구성이다.
도 12는 해쉬 생성부(130)에 의해 생성되는 해쉬 테이블의 생성 과정의 일예를 나타낸 것이다. 도 12를 참조하면, vi 는 동영상의 식별자(ID)로서 기능하는 동영상의 번호, fi 는 동영상 내 프레임의 식별자(ID)로서 기능하는 프레임의 번호, xi, yi 는 해당 프레임의 i번째 특징점의 x, y 좌표, si 는 해당 프레임의 i번째 특징점의 크기, θi 는 해당 프레임의 i번째 특징점의 방향을 나타낸다. 이어서, 전술한 바와 같은 방법에 의해 형성되는 이진 특징 벡터들이 포함된다. 여기에서, 이들 이진 특징 벡터의 앞부분 소정 k비트(도 11에서는 상위 3비트)만을 이용하여 해쉬 테이블의 버킷을 구성하고 각각의 버킷에 해당하는 특징점의 (vi, fi, xi, yi, si, θi) 를 삽입(도 12의 우측 참조)함으로써 해쉬 테이블을 생성할 수 있게 된다. 만약, 전술한 바와 같이 이진 특징 벡터들이 중요도 순으로 정렬되어 있는 경우에는 중요도 순으로 해쉬 테이블이 생성될 수 있으므로, 이진 특징 벡터의 세부적인 차이에 둔감한 해쉬 테이블을 생성할 수 있다. 한편, 검색의 정확도를 보다 높이기 위해 서로 다른 비트를 선택하여 다수의 해쉬 테이블을 구성할 수도 있다.
다음으로, 다시 도 9의 관계 분석부(140)에 대해서 설명한다. 전술한 바와 같이, 관계 분석부(140)는 이미지 특징 데이터와 동영상 특징 데이터를 비교하여 이미지와 동영상 사이의 상호 관계를 분석하는 기능을 수행하는데, 이를 위하여 도 13에 나타낸 바와 같이 해쉬 검색부(141), 후보 선정부(142), 대응 특징점 결정부(143), 신뢰도 추정부(144)를 포함할 수 있다.
도 13은 관계 분석부(140)의 구성의 일예를 나타낸 것으로서, 해쉬 검색부(141)는 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 상기 해쉬 생성부(130)에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 기능을 수행한다.
해쉬 검색부(141)는 이미지의 각각의 특징점에 대해 전술한 바와 같이 이미지 특징 데이터 생성부(110)에 의해 생성된 특징 데이터에 포함되어 있는 이진 특징 벡터에 기초하여, 전술한 바와 같이 해쉬 생성부(130)에 의해 생성된 해쉬 테이블을 검색하여 해당 특징점의 이진 특징 벡터의 소정의 앞자리 k비트(도 12에서는 상위 3비트)에 매칭되는 버킷을 우선 검색하고, 검색된 해당 버킷 내에 포함되어 있는 모든 (vi, fi, xi, yi, si, θi)를 가져 오게 된다.
후보 선정부(142)는 상기 해쉬 검색부(141)에 의해 검색된 데이터와 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고, 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하는 기능을 수행한다. 즉, 후보 선정부(142)는 이미지 특징 데이터와 상기 해쉬 검색부(141)에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고, 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정한다. 해쉬 검색부(141)에 의해 가져온 모든 (vi, fi, xi, yi, si, θi)들로부터 vi값에 기초하여 가장 많이 매칭된 동영상이 어떤 것인지를 결정할 수 있다. vi는 동영상의 식별자(ID)로서 기능하는 번호이므로, 가장 많이 나타나는 vi값을 찾아냄으로써 매칭되는 동영상을 결정할 수 있다. 동영상이 어떤 것인지 즉, 동영상의 식별자가 결정되면, fi에 기초하여 해당 동영상의 프레임 중에서 가장 많이 매칭되는 적어도 하나 이상인 C개의 프레임을 결정한다. 전술한 바와 같이, fi는 프레임의 식별자이므로, 해당 동영상에서 가장 많이 나타나는 fi값을 순서대로 찾고, 이중에서 일정 갯수(예컨대, 5개)의 프레임을 선택함으로써 프레임을 결정할 수 있게 된다.
한편, 후보 선정부(142)는 상기 해쉬 검색부(141)에 의해 검색된 데이터와 이미지 특징 데이터를 비교하여 매칭되는 동영상을 먼저 결정하지 않고, 각각의 동영상에 포함되어 있는 프레임들과 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하도록 구성할 수 있다. 즉, 후보 선정부(142)는 이미지 특징 데이터와 상기 해쉬 검색부(141)에 의해 획득된 동영상 특징 데이터들을 비교하여 각각의 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정한다. 전술한 바와 같이, 해쉬 검색부(141)에 의해 가져온 모든 (vi, fi, xi, yi, si, θi)들로부터 vi값에 기초하여 가장 많이 매칭된 동영상이 어떤 것인지를 결정하는 과정을 생략하고, fi에 기초하여 특정 동영상의 프레임 중에서 가장 많이 매칭되는 적어도 하나 이상인 C개의 프레임을 결정한다. 이 경우, C개의 프레임들은 그 일부가 다른 동영상에 속하는 것일 수 있다.
대응 특징점 결정부(143)는 이미지의 이미지 특징 데이터와 상기 후보 선정부(141)에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 기능을 수행하는데, 이는 프레임이 복수인 경우 그 횟수만큼 해당 기능을 수행한다는 점을 제외하고는 도 1 내지 도 8의 실시예에서 설명한 대응 특징점 결정부(21)와 그 기능이 동일하므로 상세 설명은 생략한다.
신뢰도 추정부(144)는 상기 대응 특징점 결정부(143)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 기능을 수행하는데, 이 또한 프레임이 복수인 경우 그 횟수만큼 해당 기능을 수행한다는 점을 제외하고는 도 1 내지 도 8의 실시예에서 설명한 신뢰도 추정부(22)와 그 기능이 동일하므로 상세 설명은 생략한다. 다만, 신뢰도 추정부(144)는 복수개의 프레임에 대해서 신뢰도를 추정할 수 있으므로, 그 결과를 제공함에 있어서 각각의 프레임에 대해서 확률값에 기초한 유사도에 대한 정보를 제공할 수도 있고, 확률값이 가장 높은 프레임을 결과로서 제공할 수도 있을 것이다.
이와 같은 과정을 통해서 도 9의 상호 관계 분석 장치(200)는, 이미지가 어떠한 동영상에 속하는 것인지, 또한 동영상의 어떠한 프레임에 해당하는지, 동영상의 특정 프레임과 어느 정도의 확률로 매칭된다고 판단할 수 있는지 등과 같은 관계를 분석할 수 있게 된다.
도 14은 도 9 내지 도 13을 참조하여 설명한 이미지와 동영상 사이의 상호 관계 분석 장치(200)에서 수행되는 이미지와 동영상의 상호 관계 분석 방법의 일실시예를 나타낸 흐름도이다.
도 14를 참조하면, 우선 이미지 특징 데이터 생성부(110)는 이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성한다(S200). 또한, 동영상 특징 데이터 생성부(120)는 동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성한다(S210). 설명의 편의를 위하여 단계(S200)과 단계(S210)는 순서를 갖는 것처럼 설명하였으나 이 순서는 바뀔 수도 있으며 동시에 수행될 수도 있다. 또한, 복수의 동영상에 대해 이미지를 질의하는 경우에는 단계(S210)을 복수의 동영상에 대해 먼저 수행해 둘 수도 있음은 물론이다.
다음으로, 해쉬 생성부(130)는 동영상 특징 데이터 생성부(120)에서 생성된 동영상 특징 데이터들에 대해 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성한다(S220).
해쉬 테이블이 생성되면, 해쉬 검색부(141)는 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 해쉬 생성부(130)에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득한다(S230). 다음으로, 후보 선정부(142)는 해쉬 검색부(141)에 의해 검색된 데이터와 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고, 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정한다(S240).
다음으로, 대응 특징점 결정부(143)는 이미지의 이미지 특징 데이터와 후보 선정부(141)에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하고(S250), 신뢰도 추정부(144)는 대응 특징점 결정부(143)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하게 된다(S260).
이상에서, 본 발명에 의한 바람직한 실시예를 참조하여 본 발명을 설명하였으나, 본 발명은 상기 실시예에 한정되는 것이 아니며, 본 발명의 범위 내에서 여러 형태의 변형 및 수정 실시가 가능함은 물론이다.
예컨대, 도 9 내지 도 12의 실시예에서, 해쉬 생성부(130)와 해쉬 검색부(141)는 필수적인 구성 요소는 아니므로 생략할 수도 있는데, 이들은 해쉬 테이블을 이용하여 보다 신속한 검색이 이루어지도록 하는 구성이기 때문이다. 이들이 생략되는 경우 특징 데이터를 적절히 비교할 수 있는 종래의 기술을 사용하거나 기타 데이터 검색에 사용되는 다른 대안적인 방법을 사용할 수 있을 것이다.
100, 200...상호 관계 분석 장치,
10...특징 데이터 생성부,
20, 140...관계 분석부,
110...이미지 특징 데이터 생성부,
120...동영상 특징 데이터 생성부,
130...해쉬 생성부,

Claims (28)

  1. 이미지 사이의 상호 관계를 분석하는 장치에 있어서,
    이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 특징 데이터 생성부; 및
    상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 관계 분석부
    를 포함하되,
    상기 관계 분석부는,
    상기 특징 데이터 생성부에서 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및
    상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부
    를 포함하고,
    상기 특징 데이터 생성부는,
    이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 특징점 결정부;
    상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 특징점 방향 추정부; 및
    상기 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 생성하는 특징 데이터 구성부
    를 포함하고,
    상기 특징 데이터 구성부는,
    상기 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  2. 제1항에 있어서,
    상기 신뢰도 추정부는,
    상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  3. 제2항에 있어서,
    상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  4. 제3항에 있어서,
    상기 특징점의 쌍을 관측할 확률(p)은,
    Figure 112012039453832-pat00022
    (여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차(
    Figure 112012039453832-pat00047
    )가 1인 표준 정규 분포의 확률 함수,
    Figure 112012039453832-pat00023
    는 모든 특징점의 쌍의 방향 차이값의 평균값(
    Figure 112012039453832-pat00024
    ),
    Figure 112012039453832-pat00025
    는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산되는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성되는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  8. 제7항에 있어서,
    상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택되는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  9. 제8항에 있어서,
    상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  10. 제9항에 있어서,
    상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  11. 제1항에 있어서,
    상기 특징점 결정부에서 추출되는 특징점 정보는 특징점의 강도를 포함하며,
    상기 특징점 결정부는, 상기 특징점의 강도에 기초하여 특징점의 주변 영역에 위치하는 점들에 비하여 큰 강도를 갖는 점을 최종적으로 특징점으로서 결정하는 특징점 여과부를 더 포함하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  12. 제11항에 있어서,
    상기 특징점 여과부는, 특징점 주변 영역에 위치하는 점들 중에서,
    Figure 112011012231577-pat00026

    (여기에서, c i 는 i번째 특징점, f( c i )는 i번째 특징점의 강도, R 1 ( c i )은 특징점의 소정 주변 영역의 점들의 집합,
    Figure 112011012231577-pat00027
    R 1 ( c i )중에서 강도의 최대값, T1은 문턱치)의 수식을 만족하는 중요점들인 R 2 ( C i ) 들을 결정하고, 수식
    Figure 112011012231577-pat00028
    (여기에서, #는 집합의 크기를 얻는 연산자, T2는 문턱치)를 만족하는 특징점을 최종적으로 특징점으로서 결정하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 장치.
  13. 이미지 사이의 상호 관계를 분석하는 방법에 있어서,
    이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 특징 데이터를 생성하는 제1 단계; 및
    상기 제1 단계에서 생성되는 특징 데이터를 이용하여 이미지와 이미지 사이의 상호 관계를 분석하는 제2 단계
    를 포함하되,
    상기 제2 단계는, 상기 생성되는 특징 데이터를 이용하여 비교되는 이미지 사이에서 대응하는 특징점의 쌍을 결정하고, 상기 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지 사이의 관계 분석 신뢰도를 추정하고,
    상기 제1 단계는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하고, 상기 결정된 특징점들 각각에 대한 방향 정보를 추정하고, 상기 결정된 특징점 각각에 대하여 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 생성하되,
    상기 이미지의 특징 데이터를 생성하는 것은, 상기 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하는 것을 특징으로 하는 이미지 사이의 상호 관계 분석 방법.
  14. 이미지와 동영상 사이의 상호 관계를 분석하는 장치에 있어서,
    이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부; 및
    상기 이미지 특징 데이터와 상기 동영상 특징 데이터를 비교하여 이미지와 동영상 사이의 상호 관계를 분석하는 관계 분석부
    를 포함하되,
    상기 관계 분석부는,
    상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 후보 선정부;
    이미지의 이미지 특징 데이터와 상기 후보 선정부에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및
    상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부
    를 포함하고,
    상기 이미지 특징 데이터 생성부는,
    이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부;
    상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및
    상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부
    를 포함하고,
    상기 동영상 특징 데이터 생성부는,
    동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 프레임 선택부;
    상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부;
    상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및
    상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부
    를 포함하고,
    상기 이미지 특징 데이터 구성부와 프레임별 특징 데이터 구성부는,
    상기 이미지 특징점 결정부와 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  15. 제14항에 있어서,
    상기 신뢰도 추정부는, 상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  16. 제15항에 있어서,
    상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  17. 제16항에 있어서,
    상기 특징점의 쌍을 관측할 확률(p)은,
    Figure 112012039453832-pat00029
    (여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차(
    Figure 112012039453832-pat00048
    )가 1인 표준 정규 분포의 확률 함수,
    Figure 112012039453832-pat00030
    는 모든 특징점의 쌍의 방향 차이값의 평균값(
    Figure 112012039453832-pat00031
    ),
    Figure 112012039453832-pat00032
    는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산되는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  18. 삭제
  19. 삭제
  20. 제14항에 있어서,
    상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성되는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  21. 제20항에 있어서,
    상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택되는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  22. 제21항에 있어서,
    상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  23. 제22항에 있어서,
    상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  24. 제14항에 있어서,
    상기 동영상 특징 데이터 생성부는, 각각의 동영상에 대한 동영상의 식별자, 동영상의 프레임별 식별자, 프레임별 특징점 좌표, 특징점 방향 정보 및 이진 특징 벡터를 포함하는 동영상 특징 데이터를 생성하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  25. 제14항에 있어서,
    상기 동영상 특징 데이터 생성부에서 생성되는 동영상 특징 데이터들에 대해 각 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 해쉬 생성부
    를 더 포함하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  26. 제25항에 있어서,
    상기 관계 분석부는,
    이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 상기 해쉬 생성부에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 해쉬 검색부
    를 더 포함하고,
    상기 후보 선정부는, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하거나, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  27. 제14항에 있어서,
    상기 이미지 특징 데이터 생성부는,
    이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부;
    상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및
    상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부
    를 포함하고,
    상기 동영상 특징 데이터 생성부는,
    동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임의 이미지 특징 데이터와 이전 추출 프레임의 이미지 특징 데이터를 비교하여 대응하는 특징점의 쌍을 결정하고, 상기 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 추출된 프레임과 이전 추출 프레임 사이의 관계 분석 신뢰도를 추정하여 그 결과에 기초하여 해당 프레임을 선택하는 프레임 선택부;
    상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부;
    상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및
    상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부
    를 포함하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 장치.
  28. 이미지와 동영상 사이의 상호 관계를 분석하는 방법에 있어서,
    이미지의 특징점을 결정하고, 결정된 각각의 특징점들에 대하여 특징점 방향 정보를 포함하는 이미지 특징 데이터를 생성하는 제1 단계;
    동영상에 대하여, 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상의 프레임에 대한 특징점을 결정하고 결정된 각각의 프레임별 특징점들에 대하여 특징점 방향 정보를 포함하는 프레임별 이미지 특징 데이터를 생성함으로써 동영상 특징 데이터를 생성하는 제2 단계; 및
    상기 이미지 특징 데이터와 상기 동영상 특징 데이터를 비교하여 이미지와 동영상 사이의 상호 관계를 분석하는 제3 단계
    를 포함하되,
    상기 제3 단계는, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 제3-1 단계;
    이미지 특징 데이터와 상기 제3-1 단계에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 제3-2 단계; 및
    상기 제3-2 단계에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상의 관계 분석 신뢰도를 추정하는 제3-3 단계
    를 포함하고,
    상기 제1 단계는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하고, 상기 결정된 특징점들 각각에 대한 방향 정보를 추정하고 상기 결정된 특징점 각각에 대하여 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하고,
    상기 제2 단계는,
    동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하고, 상기 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하고 상기 결정된 특징점들 각각에 대한 방향 정보를 추정하고, 상기 결정된 특징점 각각에 대하여 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하고,
    상기 이미지의 특징 데이터를 구성하는 것과 상기 프레임별 특징 데이터를 구성하는 것은, 상기 결정된 특징점들 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하는 것을 특징으로 하는 이미지와 동영상 사이의 상호 관계 분석 방법.
KR1020110015049A 2011-02-21 2011-02-21 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법 KR101165359B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020110015049A KR101165359B1 (ko) 2011-02-21 2011-02-21 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
PCT/KR2011/008604 WO2012115332A1 (ko) 2011-02-21 2011-11-11 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
US14/000,266 US9189700B2 (en) 2011-02-21 2011-11-11 Device and method for analyzing the correlation between an image and another image or between an image and a video
US14/941,516 US9665789B2 (en) 2011-02-21 2015-11-13 Device and method for analyzing the correlation between an image and another image or between an image and a video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110015049A KR101165359B1 (ko) 2011-02-21 2011-02-21 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101165359B1 true KR101165359B1 (ko) 2012-07-12

Family

ID=46716763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110015049A KR101165359B1 (ko) 2011-02-21 2011-02-21 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법

Country Status (3)

Country Link
US (2) US9189700B2 (ko)
KR (1) KR101165359B1 (ko)
WO (1) WO2012115332A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150088157A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 행동 인식을 위한 특징 벡터 생성 방법, 히스토그램 생성 방법, 및 분류기 학습 방법
CN105074729A (zh) * 2012-12-26 2015-11-18 微软技术许可有限责任公司 光度边缘描述
US9536175B2 (en) 2012-11-16 2017-01-03 Enswers, Co. LTD System and method for providing additional information using image matching
KR20200028858A (ko) * 2018-09-07 2020-03-17 코그넥스코오포레이션 객체의 3차원 재구성에 대한 초기 대응 할당들의 효율적인 데이터 처리를 위한 방법들 및 장치
KR20210104712A (ko) * 2018-11-15 2021-08-25 모빌아이 비젼 테크놀로지스 엘티디. 다중 프레임 시맨틱 신호의 고속 cnn 분류
CN115861603A (zh) * 2022-12-29 2023-03-28 宁波星巡智能科技有限公司 兴趣区域锁定方法、装置、设备及存储介质
WO2024117364A1 (ko) * 2022-11-30 2024-06-06 주식회사 비욘드테크 영역 추출을 이용한 위변조 웹툰 콘텐츠 판단 장치 및 그 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713499B2 (en) * 2012-04-23 2020-07-14 Conduent Business Services, Llc Real-time video triggering for traffic surveillance and photo enforcement applications using near infrared video acquisition
EP3031032A4 (en) * 2012-08-09 2017-03-29 WINK-APP Ltd. A method and system for linking printed objects with electronic content
CN106030608A (zh) * 2013-11-06 2016-10-12 理海大学 生物组织分析诊断***与方法
JP6248647B2 (ja) * 2014-01-22 2017-12-20 富士通株式会社 画像照合方法、画像処理システム、及びプログラム
US20150227792A1 (en) * 2014-02-10 2015-08-13 Peter Amon Methods and Devices for Object Detection
US20150293928A1 (en) * 2014-04-14 2015-10-15 David Mo Chen Systems and Methods for Generating Personalized Video Playlists
EP3158754B1 (en) * 2014-06-19 2021-10-20 VID SCALE, Inc. Methods and systems for intra block copy search enhancement
JP6431302B2 (ja) * 2014-06-30 2018-11-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10262190B2 (en) * 2015-03-26 2019-04-16 Beijing Kuangshi Technology Co., Ltd. Method, system, and computer program product for recognizing face
US10628736B2 (en) * 2015-09-24 2020-04-21 Huron Technologies International Inc. Systems and methods for barcode annotations for digital images
EP3206163B1 (en) * 2016-02-11 2018-12-26 AR4 GmbH Image processing method, mobile device and method for generating a video image database
US10839226B2 (en) * 2016-11-10 2020-11-17 International Business Machines Corporation Neural network training
KR102457634B1 (ko) 2017-04-17 2022-10-21 삼성전자주식회사 외부 객체에 대응되는 기준 색상 정보를 이용하여 촬영된 이미지의 색온도를 보정하는 전자 장치 및 그 전자 장치의 제어 방법
CN110324659B (zh) * 2018-03-29 2020-08-28 北京字节跳动网络技术有限公司 一种视频特征提取方法及装置
US11074434B2 (en) * 2018-04-27 2021-07-27 Microsoft Technology Licensing, Llc Detection of near-duplicate images in profiles for detection of fake-profile accounts
WO2020093152A1 (en) 2018-11-05 2020-05-14 Hamid Reza Tizhoosh Systems and methods of managing medical images
CN110033496B (zh) * 2019-03-27 2023-07-11 江苏理工学院 时间序列三维视网膜sd-oct图像的运动伪差校正方法
CN110941989A (zh) * 2019-10-18 2020-03-31 北京达佳互联信息技术有限公司 图像校验、视频校验方法、装置、设备及存储介质
US11625843B2 (en) * 2020-06-24 2023-04-11 Bluebeam, Inc. Systems and methods for automatic alignment of drawings
EP4252190A1 (en) 2020-11-24 2023-10-04 Huron Technologies International Inc. Systems and methods for generating encoded representations for multiple magnifications of image data
US11418821B1 (en) 2021-02-09 2022-08-16 Gracenote, Inc. Classifying segments of media content using closed captioning
US11475240B2 (en) * 2021-03-19 2022-10-18 Apple Inc. Configurable keypoint descriptor generation
CN113155293B (zh) * 2021-04-06 2022-08-12 内蒙古工业大学 一种基于无人机的人体遥感测温监测识别***
CN113379999B (zh) * 2021-06-22 2024-05-24 徐州才聚智能科技有限公司 火情检测方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811835B1 (ko) 2006-10-25 2008-03-10 주식회사 에스원 동영상 특징량 추출방법 및 이를 이용한 내용 기반 동영상검색방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0126464B1 (ko) * 1991-06-03 1998-04-02 박원희 지문 인식 방법
JP2720633B2 (ja) 1991-06-20 1998-03-04 富士ゼロックス株式会社 マーク認識方法及びマーク認識装置
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
KR100299858B1 (ko) 1999-03-19 2001-09-26 이영익 지문 매칭 방법
KR100481914B1 (ko) 2003-04-15 2005-04-14 학교법인 인하학원 지문 특징의 확률 모델을 이용한 지문 유사도 산출방법
US20120011142A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Feedback to improve object recognition
KR101165357B1 (ko) 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811835B1 (ko) 2006-10-25 2008-03-10 주식회사 에스원 동영상 특징량 추출방법 및 이를 이용한 내용 기반 동영상검색방법

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9536175B2 (en) 2012-11-16 2017-01-03 Enswers, Co. LTD System and method for providing additional information using image matching
US9754183B2 (en) 2012-11-16 2017-09-05 Enswers Co., Ltd. System and method for providing additional information using image matching
CN105074729B (zh) * 2012-12-26 2019-07-05 微软技术许可有限责任公司 用于光度边缘描述的方法、***和介质
CN105074729A (zh) * 2012-12-26 2015-11-18 微软技术许可有限责任公司 光度边缘描述
KR102214922B1 (ko) * 2014-01-23 2021-02-15 삼성전자주식회사 행동 인식을 위한 특징 벡터 생성 방법, 히스토그램 생성 방법, 및 분류기 학습 방법
KR20150088157A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 행동 인식을 위한 특징 벡터 생성 방법, 히스토그램 생성 방법, 및 분류기 학습 방법
KR20200028858A (ko) * 2018-09-07 2020-03-17 코그넥스코오포레이션 객체의 3차원 재구성에 대한 초기 대응 할당들의 효율적인 데이터 처리를 위한 방법들 및 장치
KR102286903B1 (ko) * 2018-09-07 2021-08-09 코그넥스코오포레이션 객체의 3차원 재구성에 대한 초기 대응 할당들의 효율적인 데이터 처리를 위한 방법들 및 장치
US11107268B2 (en) 2018-09-07 2021-08-31 Cognex Corporation Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of an object
KR20210104712A (ko) * 2018-11-15 2021-08-25 모빌아이 비젼 테크놀로지스 엘티디. 다중 프레임 시맨틱 신호의 고속 cnn 분류
US11755918B2 (en) 2018-11-15 2023-09-12 Mobileye Vision Technologies Ltd. Fast CNN classification of multi-frame semantic signals
WO2024117364A1 (ko) * 2022-11-30 2024-06-06 주식회사 비욘드테크 영역 추출을 이용한 위변조 웹툰 콘텐츠 판단 장치 및 그 방법
CN115861603A (zh) * 2022-12-29 2023-03-28 宁波星巡智能科技有限公司 兴趣区域锁定方法、装置、设备及存储介质
CN115861603B (zh) * 2022-12-29 2023-09-26 宁波星巡智能科技有限公司 婴幼儿看护场景下兴趣区域锁定方法、装置、设备及介质

Also Published As

Publication number Publication date
WO2012115332A1 (ko) 2012-08-30
US9665789B2 (en) 2017-05-30
US20160086048A1 (en) 2016-03-24
US9189700B2 (en) 2015-11-17
US20140044361A1 (en) 2014-02-13

Similar Documents

Publication Publication Date Title
KR101165359B1 (ko) 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
Hannane et al. An efficient method for video shot boundary detection and keyframe extraction using SIFT-point distribution histogram
Wang et al. Searching for representative modes on hypergraphs for robust geometric model fitting
US8983199B2 (en) Apparatus and method for generating image feature data
WO2017181892A1 (zh) 前景分割方法及装置
Priya et al. Edge strength extraction using orthogonal vectors for shot boundary detection
KR101189609B1 (ko) 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법
Liu et al. Cbl: A clothing brand logo dataset and a new method for clothing brand recognition
Leng et al. Adaptive multiscale segmentations for hyperspectral image classification
Fan et al. Fuzzy color distribution chart-based shot boundary detection
Liu et al. HVS-based perception-driven no-reference omnidirectional image quality assessment
Shi et al. Phenotyping multiple maize ear traits from a single image: Kernels per ear, rows per ear, and kernels per row
Gimenez et al. Unsupervised edge map scoring: A statistical complexity approach
Li et al. Salient object detection based on meanshift filtering and fusion of colour information
Lu et al. Spectral segmentation via midlevel cues integrating geodesic and intensity
Molina-Giraldo et al. Image segmentation based on multi-kernel learning and feature relevance analysis
Ji et al. No-reference image quality assessment for dehazed images
Liu et al. Clothing brand logo prediction: From residual block to dense block
Lizarraga-Morales et al. Improving a rough set theory-based segmentation approach using adaptable threshold selection and perceptual color spaces
Milani et al. Phylogenetic analysis of near-duplicate and semantically-similar images using viewpoint localization
Zhang et al. Content-based superpixel segmentation and matching using its region feature descriptors
Liu et al. Image Quality Assessment through Contour Detection
Hu et al. Face quality analysis of single-image super-resolution based on SIFT
Afshar et al. Image retargeting quality assessment using structural similarity and information preservation rate
Wang et al. Robust Light Field Depth Estimation over Occluded and Specular Regions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150702

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170616

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190626

Year of fee payment: 8