KR100378351B1 - 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치 - Google Patents

색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치 Download PDF

Info

Publication number
KR100378351B1
KR100378351B1 KR10-2000-0067105A KR20000067105A KR100378351B1 KR 100378351 B1 KR100378351 B1 KR 100378351B1 KR 20000067105 A KR20000067105 A KR 20000067105A KR 100378351 B1 KR100378351 B1 KR 100378351B1
Authority
KR
South Korea
Prior art keywords
color
texture
distance
image
regions
Prior art date
Application number
KR10-2000-0067105A
Other languages
English (en)
Other versions
KR20020037113A (ko
Inventor
김상균
이성덕
김창용
초치아파블에이.
수스코드미트리브이.
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2000-0067105A priority Critical patent/KR100378351B1/ko
Priority to EP20010308622 priority patent/EP1217580B1/en
Priority to US09/983,034 priority patent/US7030885B2/en
Priority to JP2001347688A priority patent/JP3554930B2/ja
Publication of KR20020037113A publication Critical patent/KR20020037113A/ko
Application granted granted Critical
Publication of KR100378351B1 publication Critical patent/KR100378351B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

색-텍스추어 거리 측정 방법 및 장치와 이를 이용한 영상의 영역 구분 방법 및 장치가 개시된다. 이 거리 측정 방법은 영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 주어진 두 점들간의 휘도차, 채도차 및 색상차에 각기 다른 중요도를 부여하고, 부여된 중요도에 비례하여 휘도차, 채도차 및 색상차를 가산하여 두 점들 사이의 색 거리를 구하는 단계와, 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서, 주어진 두 점들간의 텍스추어 특성치 차와 텍스추어의 다중 크기에 부과되는 가중 계수를 이용하여 두 점들 사이의 텍스추어 거리를 구하는 단계 및 색 거리를 색 가중치와 승산하고, 텍스추어 거리를 텍스추어 가중치와 승산하고, 승산된 결과들을 가산하여 두 점들 사이의 색-텍스추어 거리를 구하는 단계를 구비하고, 색상이 휘도나 채도보다 중요하고 휘도가 절대값에 접근할 수록 색은 검정색이 되고, 채도가 절대값에 접근할 수록 색상은 임의의 값을 가진다는 사실로부터 중요도를 결정하는 것을 특징으로 한다.

Description

색-텍스추어 거리 측정 방법 및 장치와 이를 이용한 영상의 영역 구분 방법 및 장치{Method and apparatus for measuring color-texture distance, and method and apparatus for sectioning image into a plurality of regions using the measured color-texture distance}
본 발명은 영상 처리에 관한 것으로서, 특히, 영상에서 화소들간의 색-텍스추어 거리를 측정하는 방법 및 장치와 측정된 색-텍스추어 거리를 이용하여 영상의 영역을 구분하는 방법 및 장치에 관한 것이다.
영상을 형성하는 중요한 인자들로는 조명(illuminant), 촬상되는 물체의 형상(shape), 이들의 기하학적인 상호 배치(geometry) 및 관찰자와 영상 입력 장치간의 상호 위치등이 있다. 이러한 다양한 장치와 환경 조건등이 영상의 형성에 영향을 미치게 된다. 이상적인 영상 분할이란, 전술한 영상 형성의 여러 조건에도 불구하고, 인간의 인지와 유사한 형태로 영상에서 의미 있는 물체나 동일한 색을 갖는 영역을 배경이나 다른 물체와 효과적으로 구분시키는 것이다. 이를 위한 종래의 영상 영역 분리 기술이 많이 개시되고 있다.
종래의 영상 영역 분리 기술들중 하나가 "Method and system for measuring color difference"라는 제목의 미국 특허 번호 US5751450에 개시되어 있다. 여기에개시된 종래의 영상 영역 분리 기술은 유클리디언 거리(Euclidean distance)에 의해서 일률적으로 색 거리를 계산하고 계산한 색 거리를 기준으로 영상의 영역을 분리한다. 영상에 포함된 어느 물체를 그 영상의 배경 화면과 분리시키고자 할 때 사용되는 이러한 종래의 영상 영역 분리 기술은 물체에 존재하는 두 화소들의 휘도와 채도가 서로 다르다고 할지라도 색상이 서로 동일한 경우, 두 화소들의 색상을 동일하게 취급하여야 함에도 불구하고, 이들을 다르게 취급하는 문제점을 갖는다. 왜냐하면, 일률적으로 계산된 색 거리를 이용하여 영상의 영역을 분리하기 때문이다. 결국, 이러한 상황에서 종래의 영상 영역 영역 분리 기술은 동일한 물체에 속하는 두 화소들을 서로 다른 물체에 속하는 것처럼 취급하여 영역을 분리하기 때문에, 영상의 영역을 제대로 분리시킬 수 없었다.
또한, 배경 화면에 포함된 화소와 물체의 화소간의 색상차가 존재하는 상황에서 휘도나 채도 레벨이 어느 일정 레벨 이하가 되면, 전술한 종래의 영상 영역분리 기술은 이 두 화소들의 색상차가 없는 것으로 취급하였다. 그러므로, 두개로 분리된 다른 영역들에 포함되어야 할 화소들을 하나의 동일한 영역에 포함시켜, 영상의 영역을 제대로 분리시킬 수 없는 문제점을 갖는다.
한편, 종래의 일반적인 영상의 영역 구분 방법은 병합할 영역들의 크기들이나 영역들간에 접해진 테두리의 길이들을 고려하지 않고, 두 영역들의 병합을 결정하기 때문에 영상의 영역을 제대로 구분할 수 없는 문제점을 갖는다.
본 발명이 이루고자 하는 제1 기술적 과제는, 색과 텍스추어 특성 공간에서 주어진 두 점들 각각이 갖는 색상, 휘도 및 채도의 상대적 또는 절대적 변화에 무관하게 두 점들 사이의 색-텍스추어 거리를 정확하게 측정할 수 있는 색-텍스추어 거리 측정 방법을 제공하는데 있다.
본 발명이 이루고자 하는 제2 기술적 과제는, 색-텍스추어 거리 측정 방법을 수행하는 색-텍스추어 거리 측정 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 제3 기술적 과제는, 상기 측정된 색-텍스추어 거리를 이용하여 영상에서 동일한 색 또는/및 동일한 텍스추어로 이루어진 영역을 안정되고 보다 선명하게 구분할 수 있는 영상의 영역 구분 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 제4 기술적 과제는, 상기 영상의 영역 구분 방법을 수행하는 영상의 영역 구분 장치를 제공하는 데 있다.
도 1은 본 발명에 의한 색-텍스추어 거리 측정 방법을 설명하기 위한 플로우차트이다.
도 2는 도 1에 도시된 색-텍스추어 거리 측정 방법을 수행하는 본 발명에 의한 색-텍스추어 거리 측정 장치의 블럭도이다.
도 3은 본 발명에 의한 영상의 영역 구분 방법을 설명하기 위한 플로우차트이다.
도 4는 도 3에 도시된 방법을 수행하는 본 발명에 의한 영상의 영역 구분 장치의 블럭도이다.
도 5는 각 계층의 영역이 2 ×2 형식을 갖는 4분 트리를 나타내는 도면이다.
도 6은 도 5에 도시된 어느 계층에 존재할 수 있는 4개의 영상 구성 분자들의 영역들과 이웃하는 영역들을 나타내는 도면이다.
도 7은 기초 영역 구분 지도를 설명하기 위한 예시적인 도면이다.
도 8은 도 7에 도시된 기초 영역 구분 지도로부터 생성한 영상 그래프의 예시적인 도면이다.
도 9는 도 2에 도시된 색-텍스추어 거리 발생부의 본 발명에 의한 바람직한 일실시예의 블럭도이다.
도 10은 도 4에 도시된 영상 그래프 단순화부에서 영상 그래프를 단순화하는 과정을 설명하기 위한 플루우차트이다.
도 11은 영상 그래프 단순화부의 본 발명에 의한 바람직한 일실시예의 블럭도이다.
도 12 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
도 13 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
도 14 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
상기 제1 과제를 이루기 위한 본 발명에 의한 색-텍스추어 거리 측정 방법은영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 주어진 두 점들간의 휘도차, 채도차 및 색상차에 각기 다른 중요도를 부여하고, 부여된 상기 중요도에 비례하여 휘도차, 채도차 및 색상차를 가산하여 상기 두 점들 사이의 색 거리를 구하는 (a) 단계와, 상기 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서, 주어진 상기 두 점들간의 텍스추어 특성치 차와 텍스추어의 다중 크기에 부과되는 가중 계수를 이용하여 상기 두 점들 사이의 텍스추어 거리를 구하는 (b) 단계 및 상기 색 거리를 색 가중치와 승산하고, 상기 텍스추어 거리를 텍스추어 가중치와 승산하고, 승산된 결과들을 가산하여 상기 두 점들 사이의 색-텍스추어 거리를 구하는 (c) 단계로 이루어지고, 색상이 휘도나 채도보다 중요하고 휘도가 절대값에 접근할 수록 색은 검정색이 되고, 채도가 상기 절대값에 접근할 수록 색상은 임의의 값을 가진다는 사실로부터 상기 중요도를 결정하는 것이 바람직하다.
상기 제2 과제를 이루기 위해, 측정된 색-텍스추어 거리를 이용하여 입력 영상을 다수개의 영역들로 구분하는 본 발명에 의한 영상의 영역 구분 방법은, 상기 입력 영상을 소정 횟수만큼 반복적으로 평활화시키고, 평활화된 영상에서 엣지 부분을 강조하는 단계와, 상기 색 특성치들과 상기 텍스추어 특성치들을 영상의 화소 단위로 구하고, 상기 (a) 단계로 진행하는 단계와, 상기 (c)단계후에, 피라미드 영역 구분법에 의거하여, 상기 색-텍스추어 거리와 제1 문턱값을 비교하고, 비교된 결과에 상응하여 상기 영상의 영역을 세분하고, 세분된 영역들에 대한 정보를 갖는 기초 영역 구분 지도로부터 영상 그래프를 구하는 단계 및 상기 색-텍스추어 거리와 제2 문턱값을 비교하고, 비교된 결과에 상응하여 상기 영상 그래프에 표시된 영역들을 병합하여 최종 영상 그래프를 구하는 (g) 단계로 이루어지는 것이 바람직하다.
상기 제3 과제를 이루기 위한 본 발명에 의한 색-텍스추어 거리 측정 장치는, 영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 두 점들간의 휘도차, 채도차 및 색상차에 각기 다른 중요도를 부여하고, 부여된 중요도에 비례하여 휘도차, 채도차 및 색상차를 가산하고, 가산된 결과를 상기 두 점들 사이의 색 거리로서 출력하는 색 거리 계산부와, 상기 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서 상기 두 점들이 갖는 텍스추어 특성치들을 입력하고, 입력한 텍스추어 특성치들간의 차를 검출하고, 텍스추어의 다중 크기에 부과되는 가중 계수 및 검출된 차로부터 상기 두 점들 사이의 텍스추어 거리를 계산하고, 계산된 상기 텍스추어 거리를 출력하는 텍스추어 거리 계산부 및 상기 색 거리 계산부로부터 출력되는 상기 색 거리를 색 가중치와 승산하고, 상기 텍스추어 거리 계산부로부터 출력되는 상기 텍스추어 거리를 텍스추어 가중치와 승산하고, 승산된 결과들을 가산하고, 가산된 결과를 색-텍스추어 거리로서 출력하는 색-텍스추어 거리 발생부로 구성되고, 색상이 휘도나 채도보다 중요하고 휘도가 절대값에 접근할 수록 색은 검정색이 되고, 채도가 상기 절대값에 접근할 수록 색상은 임의의 값을 가진다는 사실로부터 상기 중요도는 결정되는 것이 바람직하다.
상기 제4 과제를 이루기 위해, 상기 색-텍스추어 거리 발생부로부터 출력되는 상기 색-텍스추어 거리를 이용하여 입력 영상을 다수개의 영역들로 구분하는 본발명에 의한 영상의 영역 구분 장치는, 상기 입력 영상을 소정 횟수만큼 반복적으로 평활화시키고, 평활화된 영상에서 엣지 부분을 강조하여 출력하는 영상 전 처리부와, 상기 영상 전 처리부로부터 출력되는 영상으로부터 상기 색 특성치들과 상기 텍스추어 특성치들을 화소 단위로 계산하고, 계산된 상기 색 및 상기 텍스추어 특성치들을 상기 색-텍스추어 거리 측정 장치로 출력하는 특성치 계산부와, 피라미드 영역 구분법에 의거하고, 상기 색-텍스추어 거리 발생부로부터 출력되는 상기 색-텍스추어 거리와 제1 문턱값을 비교하고, 비교된 결과에 응답하여 상기 영상의 영역을 세분하고, 세분된 영역들에 대한 정보를 갖는 기초 영역 구분 지도로부터 영상 그래프를 생성하여 출력하는 주요 영역 구분부 및 상기 색-텍스추어 거리 발생부로부터 출력되는 상기 색-텍스추어 거리와 제2 문턱값을 비교하고, 비교된 결과에 응답하여 상기 영상 그래프를 단순화하고, 단순화된 영상 그래프로부터 얻은 최종 영상 그래프를 출력하는 영상 그래프 단순화부로 구성되는 것이 바람직하다.
이하, 본 발명에 의한 색-텍스추어 거리 측정 방법과 그 방법을 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 1은 본 발명에 의한 색-텍스추어 거리 측정 방법을 설명하기 위한 플로우차트로서, 색 거리와 텍스추어 거리를 구하는 단계(제10 및 제12 단계들) 및 색거리, 텍스추어 거리, 이들에 각각 해당하는 가중치들을 이용하여 색-텍스추어 거리를 구하는 단계(제14 단계)로 이루어진다.
도 2는 도 1에 도시된 색-텍스추어 거리 측정 방법을 수행하는 본 발명에 의한 색-텍스추어 거리 측정 장치의 블럭도로서, 색 거리 계산부(20), 텍스추어 거리계산부(22) 및 색-텍스추어 거리 발생부(24)로 구성된다.
도 1을 참조하면, 도 2에 도시된 색 거리 계산부(20)는 영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 주어진 두 점들(x 및 y) 각각이 갖는 색 특성치 즉, 휘도(B:Brightness), 채도(S:Saturation) 및 색상(H:Hue)을 입력단자 IN1을 통해 입력하고, 입력한 휘도들의 차, 채도들의 차 및 색상들의 차에 각기 다른 중요도를 부여하고, 부여된 중요도에 비례하여 휘도차, 채도차 및 색상차를 모두 가산하고, 가산된 결과를 두 점들(x 및 y) 사이의 색 거리로서 색-텍스추어 거리 발생부(24)로 출력한다(제10 단계). 이 때, 본 발명에 의한 색-텍스추어 측정 방법은, BHS로 구성된 색 특성 공간상에서 다음과 같은 세가지의 기준 조건들을 이용하여 중요도를 결정한다. 첫 번째, 색상(H)은 휘도(B)나 채도(S)보다 훨씬 중요한 역할을 한다. 두 번째, 휘도(B)가 절대값 즉, '0'에 접근한다면 영상의 색은 색상(H)이나 채도(S)에 무관하게 검은색이 된다. 세 번째, 채도(S)가 절대값 '0'에 접근한다면 즉, 회색이 되면 색상(H)은 임의의 값을 갖게 된다.
본 발명에 의한 바람직한 일실시예에서, 색 거리 계산부(20)는 전술한 기준 조건들을 바탕으로 결정한 중요도를 휘도차, 채도차 및 색상차에 다음 수학식 1에서 보여진 바와 같이 부여하여 색 거리[DBHS1(x,y)]를 계산한다.
여기서, B(o)(여기서, o는 x 또는 y에 해당한다), H(o) 및 S(o)는 두 점들(x 및 y)중 어느 점(o)에 대한 색 특성치 즉, 휘도, 색상 및 채도를 각각 나타내며 이에 대해서는 자세하게 후술되고,는 B(x)와 B(y)의 평균값을 나타내고,는 S(x)와 S(y)의 평균값을 나타내고, WB, a 및 b들은 각각 상수에 해당하고, FS(j)는 채도에 대한 선형 보정 함수를 나타내고, FH(j)는 색상에 대한 선형 보정 함수를 나타낸다. 이 때, 선형 보정 함수[FS(j) 또는 FH(j)]는 낮은 휘도와 낮은 채도의 조건하에서, 색상과 채도의 차이를 억제하기 위해 사용되었다. 이를 위해, 선형 보정 함수[FS(j) 또는 FH(j)]는 j가 1보다 적으면 j가 되고, j가 1이상이면 1이 될 수 있다.
수학식 1로부터 알 수 있듯이, 휘도차[B(x)-B(y)], 색상차[H(x)-H(y)] 및 채도차[S(x)-S(y)]에는 각기 다른 값들이 곱해져 있으며, 이 곱해지는 값들은 전술한 중요도에 따라 결정되었다.
본 발명에 의한 바람직한 다른 실시예에서, 색 거리 계산부(20)는 전술한 기준 조건들을 바탕으로 결정된 중요도를 휘도차, 채도차 및 색상차에 다음 수학식 2에서 보여진 바와 같이 부여하여 색 거리[DBHS2 2(x,y)]를 계산한다.
WH및 WS들은 각각 상수에 해당하고, FS(ㆍ,ㆍ)는 채도에 대한 비 선형 보정 함수를 나타내고, FH(ㆍ,ㆍ)는 색상에 대한 비 선형 보정 함수를 나타낸다.
수학식 2로부터 알 수 있듯이, 휘도차의 제곱([B(x)-B(y)]2) 색상차의 제곱([H(x)-H(y)]2) 및 채도차의 제곱([S(x)-S(y)]2)에는 각기 다른 값들이 곱해져 있으며, 이 곱해지는 값들은 전술한 중요도에 따라 결정되었다.
한편, 제10 단계후에, 텍스추어 거리 계산부(22)는 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서, 주어진 두 점들(x 및 y)이 갖는 후술되는 텍스추어 특성치들을 입력단자 IN2를 통해 입력하고, 입력한 텍스추어 특성치들간의 차를 검출하고, 텍스추어의 다중 크기에 부과되는 가중 계수 및 검출된 차를 이용하여 두 점들(x 및 y) 사이의 텍스추어 거리를 계산하고, 계산된 텍스추어 거리를 색-텍스추어 거리 발생부(24)로 출력한다(제12 단계). 이를 위해, 본 발명에 의한 바람직한 실시예에서는 다음 수학식 3에 보여진 바와 같이 텍스추어 거리[Dt(x,y)]를 계산한다.
여기서, wz는 텍스추어의 다중 크기에 부과되는 가중 계수를 나타내고, tk z(x) 및 tk z(y)들은 x 및 y의 텍스추어 특성치들로서 이들에 대해서는 후술되고, k=1, 2, ...., K에 해당하고, z=1, 2, ..., Z에 해당하고, Z는 소정수로서 후술된다. 여기서, 텍스추어 특성치들은 KZ만큼 존재한다.
제12 단계후에, 다음 수학식 4에 보여진 바와 같이, 색-텍스추어 거리 발생부(24)는 색 거리 계산부(20)로부터 입력한 수학식 1 또는 2에 보여진 색 거리(DBHS1또는 DBHS2)를 색 가중치(wc)와 승산하고, 수학식 3에 보여진 텍스추어 거리[Dt(x,y)]를 텍스추어 가중치(wt)와 승산하고, 승산된 결과들을 가산하며, 가산된 결과를 두 점들 사이의 색-텍스추어 거리[D(x,y)]로서 출력단자 OUT1을 통해 출력한다(제14 단계). 여기서, 색-텍스추어 거리 발생부(24)로부터 출력되는 색-텍스추어 거리가 영상의 영역을 구분하는데 사용될 경우, 색-텍스추어 거리 발생부(24)는 색 가중치와 텍스추어 가중치를 구하기 위해 필요한 값들 예를 들면, 평균 텍스추어 값을 입력단자 IN3을 통해 입력한다.
이하, 도 1 및 도 2에 도시된 본 발명에 의한 방법 및 장치에 의해 측정된 색-텍스추어 거리를 이용하여 입력 영상을 다수개의 영역들로 구분하는 본 발명에 의한 영상의 영역 구분 방법과 그 방법을 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 3은 본 발명에 의한 영상의 영역 구분 방법을 설명하기 위한 플로우차트로서, 입력 영상을 전처리한 후 색 및 텍스추어 특성치들을 구하는 단계(제30 및 제32 단계), 측정된 색-텍스추어 거리를 제1 및 제2 문턱값들과 각각 비교하여 영상을 세분 및 병합하는 단계(제34 ∼ 제38 단계)로 이루어진다.
도 4는 도 3에 도시된 방법을 수행하는 본 발명에 의한 영상의 영역 구분 장치의 블럭도로서, 영상 전 처리부(pre-processor)(40), 특성치 계산부(42), 색-텍스추어 측정 장치(44), 주요 영역 구분부(46) 및 영상 그래프 단순화부(48)로 구성된다. 여기서, 색-텍스추어 측정 장치(44)는 도 2에 도시된 색-텍스추어 측정 장치에 해당하며 동일한 기능을 수행하므로, 그에 대한 구성 및 동작 설명은 생략한다.
도 4에 도시된 영상 전 처리부(40)는 입력단자 IN4를 통해 입력한 입력 영상을 소정 횟수만큼 반복적으로 평활화시키고, 평활화된 영상에서 엣지 부분을 강조하여 전 처리된 영상을 특성치 계산부(42)로 출력한다(제30 단계). 제30 단계를 세부적으로 살펴보면 다음과 같다.
일반적으로 카메라 센서를 통해 촬영되거나 비디오 영상 신호에 해당할 수도 있는 입력영상은 통계적인 구성 요소인 잡음에 해당하는 부분과 의미 있는 구성 요소인 잡음 이외에 해당하는 부분으로 이루어져 있다. 여기서, 영상의 각 구성 요소는 다른 종류의 정보를 포함한다. 이러한 구성 요소들의 통계적 구별 방법은 입력 영상을 여러가지의 다른 성질을 가진 요소를 분해할 수 있도록 한다. 예컨데, 제30 단계에서, 입력 영상을 평활화시켜 잡음을 제거하고, 평활화된 영상을 현저한 엣지를 갖는 부분과 현저한 엣지를 갖지 않는 부분으로 분해하여 물체의 테두리 부분을 살리는 엣지 보존 영상 평활화(Edge-preserving image smoothing)이 수행된다. 엣지 보존 영상 평활화는 1998년도에 P.A.Chochia에 의해 "Optical Memory and Neural Networks"라는 저널에 발표된 "Two Tasks in Image Enhancement Technology"에 개시되어 있으며, 다음과 같이 요약된다.
일정한 크기의 윈도우 내부에 존재하는 화소들의 집합[{x}]이 다음 수학식 5와 같이 표현된다고 할 때, 다른 크기의 윈도우를 적용해가면서 윈도우 내부에 존재하는 화소들의 휘도값들중 현저한 휘도값을 갖는 화소들을 제외한 나머지 화소들을 평활화(smoothing)한다.
입력 영상에 대해 q번 평활화를 반복한 후 얻어지는 영상 화소의 휘도값[l q mn]은 이전에 얻어진 결과인 휘도값[l q-1 mn]을 사용하여 윈도우[Wq mn]로부터 다음 수학식 6과 같이 구해진다.
여기서, w(x')는 소정의 가중 함수로서, x'가 -σ와 +σ사이에 있을 때는 w(x')=1이 되고, 그렇지 않으면 w(x')=0이 된다. 전술한 휘도값[l q-1 mn]은 이전 윈도우에서 가중치 함수의 중심값을 의미한다. 최초에 입력 영상을 평활화할 때는x mnl q-1 mn대신에 사용된다. 이 때, 마지막 반복횟수인 Q번 평활화된 화소의 휘도값[s'mn]은l Q mn으로 표현된다. 즉, s'mn은 Q개의 윈도우를 가지고 평활화한 영상화소의 결과값을 의미한다. 실험결과 얻어진 바람직한 평활화 횟수는 2회로서, 첫 번째 평활화에서는 3-5 화소의 넓이를 갖는 윈도우를 사용하였고, 두 번째 평활화에서는 10-40 화소의 넓이를 갖는 윈도우를 사용하였다. 이 때, 잡음이 많은 영상에서 평활화된 성분을 추출하는데 좋은 성능을 보여주었으며, 계산되는 결과값의 제곱 평균 에러(mean square error)는 0.5% 이내였다.
제30 단계후에, 도 4에 도시된 특성치 계산부(42)는 영상 전 처리부(40)로부터 출력되는 전 처리된 영상로부터 색 특성치들과 텍스추어 특성치들을 화소 단위로 계산하고, 계산된 색 및 텍스추어 특성치들을 색-텍스추어 거리 측정 장치(44)로 출력한다(제32 단계).
먼저, 제32 단계에서 구하는 색 특성치들에 대해 살펴보면, 우선, 색의 특성 공간과 텍스추어의 특성 공간을 함께 사용하여 일반적인 특성 공간을 제공하는 기초를 만든다. 이 때, 색의 특성 공간과 텍스추어의 특성 공간을 정의함으로써 영상에 존재하는 각 화소의 색 특성치를 지정할 수 있다. 각 화소의 색 특성치 즉, 휘도(B), 색상(H) 및 채도(S)는 다음 수학식 7과 같이 표현된다.
여기서, r, g 및 b는 각 화소의 색값을 각각 나타내고, u = min(r, g, b)를 나타낸다.
다음으로, 제32 단계에서 구하는 텍스추어 특성치들에 대해 살펴보면, 텍스추어 특성 공간을 형성하기 위해 사용되는 다중 크기와 다중 방향의 텍스추어 특성치(oriented texture features)들 각각은 화소당 다중 방향의 국소 변동(v)(local variation)과 국소 진동(f)(local oscillation)을 계산한 후, 이들을 합성하여 얻어진다. 이는 그레이 레벨 차분법(Gray Level Difference Method)과 같은 텍스추어 영상 분석 방법에 해당한다. 그레이 레벨 차분법은 1974년도에 E.J.Carton, J.S.Weszka 및 A.Rosenfeld가 매릴랜드 대학(Univ. of Maryland)의 기술보고서(TR:Technical Report)-288에 발표한 "Some Basic Texture Analysis Techniques" 및 1985년도에 L.Van Gool, P.Dewaele 및 A.Oosterlinck가 컨퍼런스 CVGIP에서 발표한 "Texture Analysis Anno"에 각각 개시되어 있다. 수학식 7에 보여진 영상의 밝기값(B)이 이러한 텍스추어 특성치를 추출하는데 사용된다.
국소 변동(v)에 대해 살펴보면, 영상에서 각 화소(m,n)를 중심으로 2L 길이의 화소들이 존재하고, 이 화소(m,n)를 중심으로 각도 αk= kπ/K, k=0, 1, ..., K-1 만큼을 회전시킨다. 이 때,l i(-L≤i≤L)가 이러한 균일하게 분포된 배열의 화소들중에서 한 화소의 밝기값(B)을 나타낸다고 할 때, 상향 가중 변동(v+)과 하향 가중 변동(v-)은 다음 수학식 8과 같이 표현된다.
여기서, di는 화소의 배열에서 이웃하는 화소들의 밝기값의 차이(gradient)(l i+1-l i)를 나타내고, wi는 Acos(iπ/(2L+1))로서 코사인 가중 함수이다. 코사인 가중 함수에서 A는 계수로서을 만들기 위한 값으로 사용된다. 이 때, 국소 변동(vk)은 다음 수학식 9에 표현된 바와 같이, 상향 기준 변동(v+)과 하향 기준 변동(v-)중 가장 값으로 지정된다.
배열의 길이(-L≤i≤L)를 따라 구해지는 di들중에서, 방향(sign)이 바뀌는 동시에 그 진동의 크기인 di의 크기가 정해진 민감도를 넘는 개수를 국소 진동(f)으로서 정의하자. 이 때, 구해지는 각 화소의 국소 변동 값(vk)과 국소 진동값(fk)을 승산하여 해당 화소의 텍스추어 특성치()를 구한다. 또한, 구해지는 텍스추어 특성치를 좀 더 균일하게 하기 위해서 다음 수학식 10에서 표현된 바와 같이 변형식을 이용한다.
수학식 10으로부터 알 수 있듯이, 텍스추어 특성치(tk)는 h×1의 크기를 갖는 창의 평균치로 평활화되었고, 하이퍼볼릭 탄젠트(hyperbolic tangent)을 이용한 변형으로 높은 텍스추어 특성치는 작게되고 낮은 텍스추어 특성치는 크게 되었다. 이 때, 영상의 크기를 다른 주파수로 Z번만큼 줄이면서(매번 1/2만큼), 수학식 10에 표현된 각 화소의 텍스추어 특성치(tk)를 다음 수학식 11과 같이 표현할 수 있다.
수학식 11로부터 각 화소의 텍스추어 특성치(tk z)는 KZ가 생기게 됨을 알 수 있다.
제32 단계후에, 도 4에 도시된 색-텍스추어 측정 장치(44)는 도 2에 도시된 구성으로 도 1에 도시된 색-텍스추어 측정 방법에 따라 색-텍스추어 거리를 측정하고, 측정된 색-텍스추어 거리를 주요 영역 구분부(46)로 출력한다(제34 단계).
제34 단계후에, 피라미드 영역 구분법에 의거하여, 주요 영역 구분부(46)는 색-텍스추어 측정 장치(44)에서 측정된 색-텍스추어 거리와 제1 문턱값(Th1)을 비교하고, 영상 전 처리부(40)로부터 입력한 전 처리된 영상의 영역을 비교된 결과에응답하여 세분하고, 세분된 영역들에 대한 정보를 갖는 기초 영역 구분 지도로부터 영상 그래프를 생성하여 영상 그래프 단순화부(48)로 출력한다(제36 단계). 즉, 주요 영역 구분부(46)는 전 처리된 영상에 존재하는 화소들간의 관계를 파악하여 전 처리된 영상을 작은 영역들의 집단을 가진 벡터 영상으로 변환한다.
주요 영역 구분부(46)에서 사용되는 피라미드 영역 구분법(pyramidal recursive approach)은 1979년도에 G.M.Hunter 및 K.Steiglitz에 의해 PAMI-1 저널의 IEEE Trans에 실린 "Operation of Images Using Quad Trees" 및 1980년도에 A.Rosenfeld에 의해 패턴 인식에 관한 제5차 국제 컨퍼런스(5th Int. Conference on Pattern Recognition)의 회보(Proc.)에 실린 "Quadtrees and Pyramids for Pattern Recognition and Image Analysis"에 개시되어 있다. 이 피라미드 영역 구분법은 첫째, 영상을 겹쳐지지 않는 여러 영역의 집단으로 나누고, 둘째, 순차적으로 작아지는 여러 크기(multiple scale or resolution)의 영상을 만들며, 셋째, 하위 계층(layer)의 한 구성분자(element)와 상위 계층의 한 구성 분자간의 상호 관계를 성립하는 균일한 규칙을 선택하고, 넷째, 이러한 규칙을 반복적으로 모든 계층들의 모든 영역들에 적용하는 것으로 요약된다.
전술한 피라미드 영역 구분법에 의거하여, 도 4에 도시된 주요 영역 구분부(46)가 기초 영역 구분 지도를 만드는 과정을 살펴보면 다음과 같다.
도 5는 각 계층의 영역이 2×2 형식을 갖는 4분 트리(tree)(또는, 쿼드 트리)를 나타내는 도면으로서, 제1 계층(60), ..., 제N-2 계층(62), 제N-1 계층(64), 제N 계층(66)으로 이루어져 있다. 여기서, 제1 계층(60)은 다수개의 픽셀(68)들로이루어지며, 종축은 계층을 나타낸다.
피라미드 영역 구분법은 기초 영역 구분 지도를 만들기 위해, 도 5에 도시된 쿼드트리 형식으로 직접 패스(direct pass) 및 역 패스(inverse pass)에서 다음과 같은 동작들을 수행한다.
먼저, 직접 패스에서 수행되는 동작에 대해 살펴보면, 직접 패스는 가장 하위 계층인 전체 영상(60)부터 하나의 노드(0)를 갖는 최상위 계층(66) 방향의 경로이며, 직접 패스에서 모든 피라미드 계층들(60, ..., 62, 64 및 66)에 대하여 반복적인 분석이 실행된다. 직접 패스에서 수행되는 동작은, 도 5에 도시된 바와 같이 피라미드 구조가 형성과 각 트리 노드에 해당하는 정보들 즉, 평균 휘도값, 테두리선등의 결정이다. 예를 들면 제N-2 계층(62)에서의 4개의 각 노드 집단은 제N-1 계층(64)에서의 상대 노드를 형성하므로, 4분 트리 구조에서 각 노드들은 그의 하위 계층에 존재하는 4개의 노드에 대한 정보를 간직한다. 피라미드 영역 구분법의 기본은 근접하는 화소나 영역들을 비교 분석하여 병합해 나가는데 있다. 이를 위해, 모든 계층에서 테두리를 정의하는 테두리 맵의 제작이 필요하다. 만일, 각 계층에서 화소들간의 거리가 소정의 제1 문턱값(Th1)보다 크면 그 화소들간에는 수평이나 수직 방향의 테두리를 표시한다. 도 5에 도시된 제2 계층부터 제N 계층(66)까지의 계층들중 어느 하나의 계층은 그 보다 하위 계층의 테두리 맵의 내용을 포함한다.
도 6은 도 5에 도시된 어느 계층에 존재할 수 있는 4개의 영상 구성 분자(element)들의 영역들(70, 72, 74 및 76) 및 그 영역들(70, 72, 74 및 76)과 이웃하는 영역들(0r, 2r, 0b 및 1b)을 나타내는 도면이며, 각 영역에 기재된 번호는 그 영역의 노드번호를 나타낸다.
각 계층의 테두리 맵을 만들기 위해, 우선, 도 6에 도시된 영역들(70 및 72)간의 거리, 영역들(74 및 76)간의 거리, 영역들(70 및 74)간의 거리 및 영역들(72 및 76)간의 색-텍스추어 거리들을 수학식 4에 보여진 바와 같이 구한다. 이 때, 수학식 4에서, 색 가중치(wc) 및 텍스추어 가중치(wt) 각각은 미리 설정된 소정값에 해당한다. 즉, 색-텍스추어 거리 발생부(24)는 소정의 색 가중치(wc)와 색 거리를 승산하고, 소정의 텍스추어 가중치(wt)와 텍스추어 거리를 승산하고, 승산된 결과들을 가산하고, 가산된 결과를 색-텍스추어 거리로서 출력단자 OUT1을 통해 주요 영역 구분부(46)로 출력한다. 이와 같이 구해진 색-텍스추어 거리들중 제1 문턱값(Th1)을 초과하는 색-텍스추어 거리를 구한 영역들간에 테두리를 표시한다. 테두리가 표시되지 않은 영역들은 같은 성질(색 또는 텍스추어)을 갖는 동일한 영역으로 간주된다. 예를 들어, 영역들(72 및 76)간의 색-텍스추어 거리와 영역들(74 및 76)간의 색-텍스추어 거리가 제1 문턱값(Th1)을 초과할 경우, 영역들(72 및 76)사이와 영역들(74 및 76) 사이에는 수평 및 수직 방향의 테두리들(80 및 78)이 각각 표시되어, 영역들(70, 72 및 74)은 다른 영역(76)과 구분된다.
다음으로, 도 6에 도시된 영역들(70, 72, 74 및 76)이 도 5에 도시된 제N-2 계층(62)의 2사분면에 해당할 경우, 동일한 설질을 갖는 영역들(70, 72 및 74)의 휘도(B), 색도(H) 및 채도(S)에 대한 평균값들은 상위 계층인 제N-1 계층(64)의 해당 노드(68)로 전달된다. 반면에, 남겨진 영역(76)에 대한 정보 즉, 휘도(B),색도(H) 및 채도(S)는 제N-1 계층(64)의 해당 노드(68)로 전달되지 않고 남는다.
끝으로, 상위 계층을 위한 테두리 맵을 생성한다. 예를 들어, 제N-2 계층(62)의 2사분면의 4개의 영역들(70, 72, 74)에서 생성된 테두리 맵의 정보를 가지고, 4개를 합한 제N-1 계층(64)의 해당 영역(68)의 오른쪽과 밑의 테두리를 설정한다. 즉, 도 6에 도시된 영역들(72 및 76)과 영역들(Or 및 2r)사이 및 영역들(74 및 76)과 영역들(0b 및 1b) 사이에 제N-1 계층(64)을 위한 테두리를 설정한다. 이와 같이, 직접 패스에서 수행되는 모든 동작이 완료되면, 각 계층의 각 영역은 상위 계층의 영역에 속하거나 하위 계층의 영역들을 포함하게 된다.
전술한 직접 패스에서 해당하는 동작들이 모두 수행된 후 도 5에 도시된 최상위 계층(66)부터 제1 계층(60) 방향의 경로인 역 패스에서 수행되는 동작들에 대해 살펴보면, 각 계층에서 하나의 노드에 대한 분석이 다음과 같이 수행된다.
먼저, 각 계층에서 분리된 영역의 노드가 아무런 영역번호를 갖고 있지 않다면 새로운 영역번호를 해당 노드에 부여한다. 예컨데, 제N-1 계층(64)에서 노드 0, 1 및 2들이 동일한 영역에 해당하고 노드 3은 다른 영역에 해당한다면 이 노드들(0, 1 및 2)이 병합된 동일한 영역에 영역 번호 1'을 부여하고, 분리된 영역인 노드 3에 새로운 영역 번호 2'를 부여한다.
다음으로, 노드에 이미 영역 번호가 부여되어 있다면, 해당 영역 번호를 직접 패스로 동작이 수행될 때 연결해 놓은 하위 계층의 노드들에 부여한다. 예컨데, 제N-2 계층(62)의 1사분면에서 노드들 1, 2 및 3이 동일한 영역에 해당하고 노드 0은 다른 영역에 해당하고, 제N-2 계층(62)의 2사분면에서 노드들 0, 1 및 2가 동일한 영역에 해당하고 노드 3은 다른 영역에 해당하고, 제N-2 계층(62)의 3사분면에서 노드들 0, 1 및 2가 동일한 영역에 해당하고 노드 3은 다른 영역에 해당하고, 제N-2 계층(62)의 4사분면에서 노드들 0, 1 및 2가 동일한 영역에 해당하고 노드 3은 다른 영역에 해당한다고 가정한다. 이 때, 1사분면의 노드들(1, 2 및 3) 각각에 제N-1 계층(64)의 노드 1에 부여되었던 영역 번호 1'를 부여하고, 다른 영역인 노드 0에 새로운 영역 번호 3'를 부여한다. 마찬가지로, 제N-2 계층(62)의 2사분면의 노드들(0, 1 및 2), 3사분면의 노드들(0, 1 및 2) 및 4사분면의 노드들(0, 1 및 2) 각각에 제N-1 계층(64)의 노드 1에 부여되었던 영역 번호 1'를 부여하고, 다른 영역들인 제1, 2, 3 및 4사분면의 해당 노드들(0, 3, 3 및 3)에 새로운 영역 번호 4', 5' 및 6'를 각각 부여한다. 전술한 역 패스에서 해당하는 동작들이 모두 수행된 후, 영역 구분에 필요한 기초 영역 구분 지도가 만들어진다.
도 7은 기초 영역 구분 지도를 설명하기 위한 예시적인 도면으로서, 1, 2, 3, 4 및 5의 영역 번호가 부여된 다섯개의 영역들(90, 92, 94, 96 및 98)로 구성된다.
도 8은 도 7에 도시된 기초 영역 구분 지도로부터 생성한 영상 그래프의 예시적인 도면으로서, 기초 영역 구분 지도상에서 인접한 영역들은 서로 연결되어 있음을 알 수 있다.
주요 영역 구분부(46)는 도 7에 도시된 기초 영역 구분 지도를 이용하여 도 8에 도시된 영상 그래프를 만들고, 각 영역이 포함하는 정보 즉, 화소들의 개수나 평균색등을 저장한다. 여기서, 도 8에 도시된 영상 그래프는 도 7에 도시된 기초영역 구분 지도에서 어느 영역들이 인접해 있는가에 대한 정보 및 인접한 영역들간의 테두리 접선의 길이에 대한 가중치들(wt1, wt2, wt3, wt4 및 wt5)는 얼마인가에 대한 정보를 제공한다.
주요 영역 구분부(46)는 전술한 바와 같이, 피라미드 영역 구분법을 사용하여 영역을 세부적으로 구분하기 때문에, 영역의 닫힘을 보장하여 구분된 영역이 선명해질 수 있도록 하는 잇점을 제공한다.
제36 단계후에, 색-텍스추어 거리 발생부(24)로부터 출력되는 색-텍스추어 거리와 제2 문턱값을 비교하고, 주요 영역 구분부(46)에서 생성된 영상 그래프를 비교된 결과에 응답하여 단순화하고, 단순화된 영상 그래프를 최종 영상 그래프로서 출력단자 OUT2를 통해 출력한다(제38 단계).
제38 단계에서 사용되는 색-텍스추어 거리를 발생하기 위해, 색-텍스추어 거리 발생부(24)는 소정의 색 가중치(wc)와 소정의 텍스추어 가중치(wt)를 사용하는 대신에, 세분화된 영역들에 대한 특성을 사용한다. 여기서, 세분화된 영역들에 대한 특성이란, 세분화된 영역들의 텍스추어 정도[t(u',v')](여기서, u' 및 v'는 기초 영역 구분 지도에 표시된 세분화된 영역들을 각각 나타낸다.), 세분화된 영역들의 크기[p(u',v')] 및 세분화된 영역들의 채도[s(u',v')]에 상응하여 가변되는 색 가중치[wc(u', v')] 및 텍스추어 가중치[wt(u', v')]를 의미한다. 즉, 색-텍스추어 거리 발생부(24)는 가변되는 색 가중치[wc(u', v')] 및 가변되는 텍스추어 가중치[wt(u', v')]를 수학식 1 또는 2에 보여진 색 거리 및 수학식 3에 보여진 텍스추어 거리와 각각 승산하고, 승산된 결과들을 가산하며, 가산된 결과를 색-텍스추어 거리로서 영상 그래프 단순화부(48)로 출력한다.
도 9는 도 2에 도시된 색-텍스추어 거리 발생부(24)의 본 발명에 의한 바람직한 일실시예의 블럭도로서, 색 가중치 계산부(100), 텍스추어 가중치 계산부(102), 제1 및 제2 승산기들(104 및 106) 및 가산기(108)로 구성된다.
도 9에 도시된 색 가중치 계산부(100)는 다음 수학식 12와 같이 색 가중치[wc(u', v')]를 계산하고, 계산된 색 가중치를 제1 승산기(104)로 출력한다.
여기서,은 색 및 텍스추어 가중 상수들을 각각 나타내고, t(u', v')는 다음 수학식 13이 표현된다.
여기서, Tmax는 텍스추어 정도의 최대값을 나타내며, T(u')는 다음 수학식 14와 같이 표현된다.
여기서, tk z(u')는 영역 u'의 크기 z에서의 방향 k를 갖는 평균 텍스추어 값을 의미한다. 가중치 wz는 수학식 3에 보여진 가중 계수이다. 또한, 수학식 12에서 p(u',v')는 다음 수학식 15와 같이 표현된다.
여기서, Po는 기초 구분 영역 지도상에 표시된 세분화된 영역의 크기의 문턱값을 나타낸다. 또한, 수학식 12에서 s(u',v')는 다음 수학식 16과 같이 표현된다.
여기서, So는 채도의 문턱값을 나타낸다. 수학식 15와 16들 각각에서 함수 F는 너무 작은 크기의 영역이나 저 채도의 영향을 억제하기 위해서 사용되었다.
도 9에 도시된 텍스추어 가중치 계산부(102)는 텍스추어 가중치[wt(u', v')]를 다음 수학식 17과 같이 계산하고, 계산된 텍스추어 가중치를 제2 승산기(106)로 출력한다.
도 9에 도시된 색 가중치 계산부(100) 및 텍스추어 가중치 계산부(102)는 입력단자 IN5를 통해(여기서, 입력단자 IN5는 도 2에 도시된 입력단자 IN3에 해당한다.) 평균 텍스추어 값을 입력하고, 전술한 색 및 텍스추어 가중 상수들, 텍스추어 정도의 최대값, 평균 텍스추어 값가중 계수, 기초 구분 영역 지도상에 표시된 세분화된 영역의 크기의 문턱값 및 채도 정도의 문턱값들중 해당하는 값들을 입력단자 IN5를 통해 외부로부터 입력하거나 미리 저장할 수 있다.
제1 승산기(104)는 수학식 1 또는 2에 보여진 색 거리(Dc)와 색 가중치 계산부(100)로부터 출력되는 색 가중치[wc(u',v')]를 승산하고, 승산된 결과를 가산기(108)로 출력한다. 제2 승산기(106)는 수학식 3에 보여진 텍스추어 거리(Dt)를 텍스추어 가중치 계산부(102)로부터 출력되는 텍스추어 가중치[wt(u',v')]와 승산하고, 승산된 결과를 가산기(108)로 출력한다. 가산기(108)는 제1 승산기(104)에서 승산된 결과와 제2 승산기(106)에서 승산된 결과를 가산하고, 다음 수학식 18에 표시된 가산된 결과를 영상 그래프를 단순화시키기 위해 필요한 색-텍스추어 거리[]로서 출력단자 OUT3을 통해 영상 그래프 단순화부(48)로 출력한다.
여기서, Dc(u',v') 및 Dt(u',v')들은 각각 색 거리 및 텍스추어 거리로서, 수학식 4에 보여진 색 거리 및 텍스추어 거리와 동일하다.
한편, 전술한 바와 같이, 영상 그래프 단순화부(48)에서 사용되는 색-텍스추어 거리를 계산하기 위해서 사용되는 색 가중치(wc)와 텍스추어 가중치(wt)가 소정값이 아닌 변수인 이유는, 세분화된 영역들의 텍스추어 정도, 세분화된 영역들의크기 및 세분화된 영역의 채도가 가변될 경우, 색-텍스추어 거리를 조절하기 위해서이다. 예컨데, 세분화된 영역들(u' 및 v')의 크기가 세분화된 영역들의 크기의 문턱값(Po)보다 적을 경우, 수학식 18에 보여진 색 가중치[wc(u',v')]가 증가되는 동시에 텍스추어 가중치[wt(u',v')]가 감소된다. 만일, 세분화된 영역들의 텍스추어 정도가 증가하면, 색 가중치[wc(u',v')]는 감소하는 동시에 텍스추어 가중치[wt(u',v')]는 증가한다.
전술한 구성을 통해, 영상 그래프 단순화부(48)가 제38 단계를 수행하는 과정을 살펴보면 다음과 같다.
먼저, 주요 영역 구분부(46)로부터 출력되는 영상 그래프에 표시된 영역들을 그 크기가 감소하는 방향으로 배열한다.
다음에, 배열된 영역들중에서, 임의의 영역을 중심으로(이하, 중심이 되는 영역을 베이스 영역이라 함), 그 베이스 영역과 연결된 이웃하는 영역들간의 색-텍스추어 거리를 수학식 18로부터 구한다. 만일, 계산된 영역들간의 색-텍스추어 거리가 제2 문턱값(θ) 이하인 경우, 베이스 영역과 해당하는 이웃 영역들을 병합한다. 즉, 해당하는 이웃 영역들을 베이스 영역에 포함시킨다. 이와 같이, 베이스 영역이 이웃하는 영역을 포함하게 되면, 베이스 영역의 특성 즉, 색, 텍스추어, 베이스 영역의 크기 및 테두리등은 변화되므로, 영상 그래프에서 베이스 영역과 관련되는 부분 즉, 베이스 영역과 이웃하는 영역들간의 연결관계등을 수정한다. 이 때, 새로이 수정된 베이스 영역을 중심으로 이와 이웃하는 영역들간의 병합을 전술한바와 동일하게 새롭게 진행한다. 이와 같이 베이스 영역을 새롭게 갱신하고, 갱신된 베이스 영역을 중심으로 이웃하는 영역들과 병합하는 과정을 모두 종료하면, 다음 크기의 영역을 베이스 영역으로 새롭게 지정하여 전술한 병합 과정을 진행한다. 이러한 병합 과정은 영상 그래프상에 표시된 모든 영역들에 대해서 수행된 후 종료한다.
한편, 제2 문턱값(θ)이 어떠한 값이 되더라도, 영상 그래프를 단순화시키는 과정은 완벽하게 수행될 수 없다. 이를 극복하기 위해, 영상 그래프 단순화부(48)는 여러가지 하부 병합부들로 나누어질 수 있다. 이를 위해, 수학식 18에 표시된 색 및 텍스추어 가중치들과 색 및 텍스추어 거리들의 값들을 차별화시키고, 영역의 크기에 따라서 제2 문턱값(θ)을 동적으로 변화시킨다. 이에 대해, 세부적으로 살펴보면 다음과 같다.
도 10은 도 4에 도시된 영상 그래프 단순화부(48)에서 영상 그래프를 단순화하는 과정을 설명하기 위한 플루우차트로서, 제1차, 제2차 및 제3차 영역 병합 단계(120 ∼ 124)로 이루어진다.
도 11은 영상 그래프 단순화부(48)의 본 발명에 의한 바람직한 일실시예의 블럭도로서, 제1 차, 제2 차 및 제3 차 영역 병합부들(140, 142 및 144) 및 문턱값 발생부(146)로 구성된다.
도 11에 도시된 문턱값 발생부(146)는 다음 수학식 19와 같이 제2 문턱값(θ)을 동적으로 변화시켜 제1, 제2 및 제3차 영역 병합부들(140, 142 및 144)로 각각 출력한다.
여기서, P'는 비교되는 두 영역들중 작은 영역의 크기를 나타내고, Po'는 작은 영역이 일반적으로 가질 수 있는 소정의 크기를 나타내는 상수이고, α는 문턱값 상수이고, αβ는 비교되는 두 영역들중 큰 영역의 문턱값을 의미한다.
제1 차 영역 병합부(140)는 수학식 18에 표시된 색-텍스추어 거리와 제2 문턱값을 비교하고, 색-텍스추어 거리가 문턱값 발생부(146)로부터 입력한 제2 문턱값 이하인 경우 영상 그래프상에 표시된 두개의 세분화된 영역들(u', v')을 병합하고, 이러한 방법으로 병합된 최종 결과를 반영하여 생성한 제1 중간 영상 그래프를 제2차 영역 병합부(142)로 출력한다(제120 단계). 수학식 19에서 α를 서서히 증가시킴으로써 제1 차 영역 병합부(140)의 성능을 개선시킬 수 있다.
제120 단계후에, 제2 차 영역 병합부(142)는 제1 색-텍스추어 거리와 제2 문턱값을 비교하고, 제1 색-텍스추어 거리가 제2 문턱값 이하인 경우, 제1 중간 영상 그래프 구분 지도에 표시되는 두개의 영역들(u", v")을 병합하고, 이러한 방법으로 병합된 최종 결과를 반영하여 생성한 제2 중간 영상 그래프를 제3 차 영역 병합부(144)로 출력한다(제122 단계). 여기서, 제1 색-텍스추어 거리는, 수학식 12 및 17들에서 색 가중 상수()를 '0'으로 설정하여 구한 색 가중치 및 텍스추어 가중치, 수학식 3과 수학식 1 또는 2에 WH≪ WB및 WS≪ WB의 조건을 반영하여 구한 텍스추어 거리 및 색 거리를 수학식 18에 대입하여 구한 색-텍스추어 거리에 해당한다. 즉, 도 9에 도시된 색-텍스추어 거리 발생부의 제1 및 제2 승산기들(104 및 106) 각각은 색 가중 상수()가 '0'일 때 색 가중치 계산부(100)로부터 출력되는 색 가중치[wc(u", v")] 및 텍스추어 가중치 계산부(102)로부터 출력되는 텍스추어 가중치[wt(u", v")]를 WH≪ WB및 WS≪ WB의 조건에서 색 및 텍스추어 거리 계산부(20 및 22)들로부터 각각 출력되는 색 거리와 텍스추어 거리에 승산한다. 이 때, 가산기(108)는 승산된 결과들을 가산하고, 가산된 결과를 제1 색-텍스추어 거리로서 출력단자 OUT3을 통해 영상 그래프 단순화부(48)로 출력한다. 제122 단계는, 영역들(u" 및 v")의 휘도가 매우 낮을 때만 제한하여 수행될 수 있다.
제124 단계후에, 제3 차 영역 병합부(144)는 제2 색-텍스추어 거리와 문턱값 발생부(146)로부터 입력한 제2 문턱값(θ)을 비교하고, 제2 색-텍스추어 거리가 제2 문턱값 이하인 경우, 제2 중간 영상 그래프에 표시되는 두개의 영역들(u"', v"')을 병합하고, 이러한 방법으로 병합된 최종 결과를 반영하여 생성한 최종 영상 그래프를 출력단자 OUT4를 통해 출력한다(제124 단계). 여기서, 제2 색-텍스추어 거리는 수학식 12 및 17들에의 조건을 반영하여 구한 색 가중치 및 텍스추어 가중치, 수학식 1 또는 2에 보여진 색 거리와 수학식 3에 표시된 텍스추어 거리를 수학식 18에 대입하여 구한 색-텍스추어 거리에 해당한다. 즉, 도 9에 도시된 색-텍스추어 거리 발생부의 제1 및 제2 승산기들(104 및 106)은의 조건에서 색 및 텍스추어 가중치 계산부들(100 및 102)로부터 각각 출력되는 색 가중치[wc(u"', v"')]와 텍스추어 가중치[wt(u"', v"')]를 색 거리와 텍스추어 거리에 각각 승산한다. 이 때, 가산기(108)는 제1 및 제2 승산기들(100 및 102)에서 승산된 결과를 가산하고, 가산된 결과를 제2 색-텍스추어 거리로서 출력단자 OUT3을 통해 영상 그래프 단순화부(48)로 출력한다. 제3 차 영역 병합부(144)는 영역들(u"', v"')의 텍스추어 정도가 높은 경우에만 제한하여 수행될 수 있다.
도 12 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
도 13 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
도 14 (a)는 입력 또는 전 처리된 영상을 나타내고, (b)는 본 발명에 의한 영상 영역 구분 방법 및 장치에 의해서 구분된 영역을 나타내는 도면이다.
도 12의 (a), 도 13의 (a) 또는 도 14의 (a)에 도시된 영상은 주요 영역 구분부(46)에서 예를 들면 1600개 정도의 영역들로 세분화되고, 영상 그래프 단순화부(48)는 이 영역들을 예를 들면 16개등으로 줄이는 즉, 세분화된 영역들을 병합하여 단순화시킨다. 이 때, 단순화된 결과에 대한 정보를 갖는 최종 영상 그래프를 이용하여 도 12의 (b), 도 13의 (b) 또는 도 14의 (b)에 도시된 바와 같은 구분된 영상을 얻을 수 있다.
전술한 본 발명에 의한 색-텍스추어 측정 방법 및 장치, 측정된 색-텍스추어를 이용한 영상의 영역 구분 방법 및 장치는 디지탈 방식의 대화형 디지탈 시스템에서 효과적으로 사용될 수 있다. 디지탈 방송의 대중적인 보급을 앞두고, 사용자가 방송을 시청함으로써 정보를 얻던 수동적인 자세에서 탈피하여 사용자와 방송자간의 직접적이고, 능동적인 쌍방향 정보 교환이 가능한 디지탈 방식의 대화형 비디오 시스템을 개발하기 위한 노력이 경주되고 있다. 예컨데, 디지탈 방식의 대화형 비디오 시스템에서는, 사용자가 방송되고 있는 드라마, 영화, 쇼, 광고 또는 교양 프로그램, 쇼핑 또는 경매등에서 자신이 원하는 화면상의 대상에 대한 정보를 얻기 위하여 직접 대상을 선택하면, 이에 대한 정보가 화면상에 디스플레이된다. 예컨데, 화면에 등장하는 인기가수의 옷, 드라마에서 디스플레이되는 가구, 인물 또는 요리 프로그램에 필요한 재료와 방법등이 의미있는 대상이 될 수 있으며, 이들 대상을 사용자가 선택하면, 선택한 대상에 대한 정보가 사용자에게 제공될 수 있다. 이를 위해, 선결되어야 할 과제로서, 방송되는 영상 내에 존재하는 의미있는 대상이 효과적으로 구분될 수 있어야 한다. 방송되는 영상내에 존재하는 의미있는 대상이 차지하는 영역을 다른 배경이나 물체와 효과적으로 구분하기 위해서는, 해당하는 대상이 갖는 여러가지의 특징들을 최대한 이용하여야 한다. 이 선택된 대상이 가질 수 있는 특징에는 물체의 색, 텍스추어 또는 형상등이 있으며, 이들중 색 또는 텍스추어는 대상을 단일 영역화하는데 중요한 단서를 제공할 수 있다. 전술한 본 발명에 의한 영역 구분 방법 및 장치는 동일 색 또는 동일 텍스추어를 갖는 영역이 하나의 의미있는 대상일 가능성이 그 만큼 높다는 사실에 근거하여, 색 거리와 텍스추어 거리를 모두 사용하여 영상의 영역을 안정되면서도 선명하게 구분할 수 있는 최종 영상 그래프를 제공한다. 또한, 이러한 본 발명에 의한 영역 구분 방법 및 장치는 선택된 대상이 여러가지의 색 또는 여러가지의 텍스추어로 이루어진경우에도 세분화된 영상들을 병합하여 의미있는 대상이 차지하는 영역을 효과적으로 구분시킬 수 있도록 한다.
게다가, 본 발명에 의한 색-텍스추어 거리 측정 방법 및 장치와 측정된 거리를 이용한 영상의 영역 구분 방법 및 장치는 디지탈 방송과 관련된 제품 및 소프트웨어에서 기본 모듈로서의 역할을 수행할 수도 있다.
한편, 본 발명에 의한 영상의 영역 구분 방법 및 장치는 영상내에 존재하는 의미있는 대상을 검색 및 인식하거나, 의미있는 대상을 트랙킹하는데 유용하게 사용될 수 있다. 즉, 본 발명에 의한 방법 및 장치로부터 구해진 최종 영상 그래프를 이용하여 의미있는 대상이 차지하는 영역에 대한 정보를 추출한다. 이 때, 추출된 정보와 비슷한 정보를 갖는 대상이 이전에 디스플레이된 화면을 검색하거나 인식할 수도 있으며, 추출된 정보와 비슷한 정보를 갖는 대상이 이전에 디스플레이된 모든 화면들을 트랙킹할 수도 있다. 또한, 추출된 정보는 영상을 편집하거나 제작하는데 이용될 수도 있다.
또한, MPEG등과 같은 영상 압축 방식으로 압축되어 전송될 영상에서 의미있는 대상만을 효율적으로 전송하고자 할 때, 추출된 정보에 해당하는 부분만을 좀더 세부적으로 압축하여 전송함으로써 전송 효율을 극대화 시킬 수 있도록 한다.
이상에서 설명한 바와 같이, 본 발명에 의한 색-텍스추어 거리 측정 방법 및 장치와 측정된 색-텍스추어 거리를 이용한 영상의 영역 구분 방법 및 장치는, 저휘도, 저채도의 영역 및 영역의 크기나 영역들간에 접해진 테두리의 길이등을 고려한정확한 색-텍스추어 거리를 제공하여 종래보다 효율적으로 영상의 영역을 구분할 수 있도록 하고, 색과 텍스추어를 동시에 이용하여 구한 색-텍스추어 거리를 이용하여 영상의 영역을 안정되게 구분시킬 수 있으며, 텍스추어 특성치를 간단히 계산하여 안정된 영상 구분의 수행 속도를 유지할 수 있도록 하며, 수차례에 걸친 영역 병합에 의해 평균적으로 우수한 영역 구분 성능을 제공하며, 결국, 입력 영상으로부터 동일한 색 또는 동일한 텍스추어를 갖는 갖는 영역들을 인간의 인지와 유사한 형태로 추출할 수 있도록 하는 효과를 갖는다.

Claims (21)

  1. (a) 영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 주어진 두 점들간의 휘도차, 채도차 및 색상차에 각기 다른 중요도를 부여하고, 부여된 상기 중요도에 비례하여 휘도차, 채도차 및 색상차를 가산하여 상기 두 점들 사이의 색 거리를 구하는 단계;
    (b) 상기 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서, 주어진 상기 두 점들간의 텍스추어 특성치 차와 텍스추어의 다중 크기에 부과되는 가중 계수를 이용하여 상기 두 점들 사이의 텍스추어 거리를 구하는 단계; 및
    (c) 상기 색 거리를 색 가중치와 승산하고, 상기 텍스추어 거리를 텍스추어 가중치와 승산하고, 승산된 결과들을 가산하여 상기 두 점들 사이의 색-텍스추어 거리를 구하는 단계를 구비하고,
    색상이 휘도나 채도보다 중요하고 휘도가 절대값에 접근할 수록 색은 검정색이 되고, 채도가 상기 절대값에 접근할 수록 색상은 임의의 값을 가진다는 사실로부터 상기 중요도를 결정하는 것을 특징으로 하는 색-텍스추어 거리 측정 방법.
  2. 제1 항에 있어서, 상기 (a) 단계는 아래와 같이 상기 색 거리[DBHS1(x,y)](여기서, x와 y는 상기 두 점들을 각각 나타낸다.)를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 방법.
    [여기서, B(o)(여기서, o는 x 또는 y에 해당한다), H(o) 및 S(o)는 어느 점(o)에 대한 휘도, 색상 및 채도를 각각 나타내고,는 B(x)와 B(y)의 평균값을 나타내고,는 S(x)와 S(y)의 평균값을 나타내고, WB, a 및 b들은 각각 상수에 해당하고, FS(j)는 채도에 대한 선형 보정 함수를 나타내고, FH(j)는 색에 대한 선형 보정 함수를 나타낸다.]
  3. 제2 항에 있어서, 상기 선형 보정 함수[FS(j) 또는 FH(j)]는 j가 1보다 적으면 j이 되고, j가 1이상이면 1이 되는 것을 특징으로 하는 색-텍스추어 거리 측정 방법.
  4. 제1 항에 있어서, 상기 (a) 단계는 아래와 같이 상기 색 거리[DBHS2 2(x,y)](여기서, x와 y는 상기 색 공간상에서 두 점들을 각각 나타낸다.)를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 방법.
    [여기서, B(o)(여기서, o는 x 또는 y에 해당한다.), H(o) 및 S(o)는 어느 점(o)에 대한 휘도, 색상 및 채도를 각각 나타내고, WB, WH및 WS들은 각각 상수에 해당하고, FS(ㆍ,ㆍ)는 채도에 대한 비 선형 보정 함수를 나타내고, FH(ㆍ,ㆍ)는 색에 대한 비 선형 보정 함수를 나타낸다.]
  5. 제2 항 또는 제4 항에 있어서, 상기 (b) 단계는 아래와 같이 상기 텍스추어 거리[Dt(x,y)]를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 방법.
    [여기서, wz는 상기 가중 계수를 나타내고, tk z(x) 및 tk z(y)들은 x 및 y의 상기 텍스추어 특성치들을 각각 나타내고, k=1, 2, ...., K 에 해당하고, Z는 소정수를 나타낸다.]
  6. 제5 항의 색-텍스추어 거리 측정 방법에 의해 계산된 상기 색-텍스추어 거리를 이용하여 입력 영상을 다수개의 영역들로 구분하는 영상의 영역 구분 방법에 있어서,
    (d) 상기 입력 영상을 소정 횟수만큼 반복적으로 평활화시키고, 평활화된 영상에서 엣지 부분을 강조하는 단계;
    (e) 상기 색 특성치들과 상기 텍스추어 특성치들을 영상의 화소 단위로 구하고, 상기 (a) 단계로 진행하는 단계;
    (f) 상기 (c)단계후에, 피라미드 영역 구분법에 의거하여, 상기 색-텍스추어 거리와 제1 문턱값을 비교하고, 비교된 결과에 상응하여 상기 영상의 영역을 세분하고, 세분된 영역들에 대한 정보를 갖는 기초 영역 구분 지도로부터 영상 그래프를 구하는 단계; 및
    (g) 상기 색-텍스추어 거리와 제2 문턱값을 비교하고, 비교된 결과에 상응하여 상기 영상 그래프에 표시된 영역들을 병합하여 최종 영상 그래프를 구하는 단계를 구비하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  7. 제6 항에 있어서, 상기 (f) 단계에서 이용되는 상기 색-텍스추어 거리는 소정의 상기 색 가중치(wc) 및 소정의 상기 텍스추어 가중치(wt)를 이용하여 결정되는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  8. 제7 항에 있어서, 상기 (g) 단계에서 이용되는 상기 색-텍스추어 거리는 상기 세분화된 영역들이 갖는 특성들에 상응하여 가변되는 상기 색 가중치[wc(u', v')](여기서, u' 및 v'는 상기 세분화된 영역들을 각각 나타낸다.) 및 상기 텍스추어 가중치[wt(u', v')]를 이용하여 결정되는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  9. 제8 항에 있어서, 상기 세분화된 영역들이 갖는 특성들은 세분화된 영역들의 텍스추어 정도[t(u',v')], 상기 세분화된 영역들의 크기[p(u',v')] 및 상기 세분화된 영역들의 채도[s(u',v')]에 해당하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  10. 제9 항에 있어서, 상기 색 가중치[wc(u', v')]는 아래와 같이 구해지고,
    [여기서,은 색 및 텍스추어 가중 상수들을 각각 나타내고,(여기서, Tmax는 상기 텍스추어 정도의 최대값을 나타낸다.),(여기서, Po는 상기 세분화된 영역들의 크기의 문턱값을 나타낸다.) 및(여기서,So는 상기 세분화된 영역들의 채도의 문턱값을 나타낸다.)을 나타낸다.]
    상기 텍스추어 가중치[wt(u', v')]는 아래와 같이 구해지는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  11. 제10 항에 있어서, 상기 (g) 단계는
    (g1) 상기 색-텍스추어 거리와 상기 제2 문턱값을 비교한 결과에 상응하여, 상기 영상 그래프상에 표시된 두개의 상기 세분화된 영역들(u', v')을 병합하는 단계;
    (g2) 상기 색 가중 상수()를 '0'으로 설정하고 WH≪ WB및 WS≪ WB의 조건을 부여하여 결정된 상기 색 가중치[wc(u", v")][여기서, u" 및 v"는 상기 (g1) 단계에서 영역들을 병합한 최종 결과를 반영한 영상 그래프에 표시되는 두 영역들을 나타낸다.], 상기 텍스추어 가중치[wt(u", v")], 상기 색 거리 및 상기 텍스추어 거리를 이용하여 구한 상기 색-텍스추어 거리와 상기 제2 문턱값을 비교한 결과에 상응하여, 두 영역들(u", v")을 병합하는 단계; 및
    (g3)로 설정하여 결정된 상기 색 가중치[wc(u"', v"')][여기서, u"' 및 v"'는 상기 (g2) 단계에서 영역들을 병합한 최종 결과를 반영한 영상 그래프에 표시되는 두 영역들을 나타낸다.]와 상기 텍스추어 가중치[wt(u"', v"')]를 이용하여 구한 상기 색-텍스추어 거리와 상기 제2 문턱값을 비교한 결과에 상응하여, 두 영역들(u"', v"')을 병합하고, 영역들을 병합한 최종 결과를 반영하여 상기 최종 영상 그래프를 구하는 단계를 구비하고,
    상기 제2 문턱값은 상기 영역의 크기에 따라 유동적으로 변하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 방법.
  12. 영상의 화소들이 갖는 색 특성치들로 구성된 색 특성 공간상에서, 두 점들간의 휘도차, 채도차 및 색상차에 각기 다른 중요도를 부여하고, 부여된 중요도에 비례하여 휘도차, 채도차 및 색상차를 가산하고, 가산된 결과를 상기 두 점들 사이의 색 거리로서 출력하는 색 거리 계산부;
    상기 화소들에 대한 텍스추어 특성치들로 구성된 텍스추어 특성 공간상에서 상기 두 점들이 갖는 텍스추어 특성치들을 입력하고, 입력한 텍스추어 특성치들간의 차를 검출하고, 텍스추어의 다중 크기에 부과되는 가중 계수 및 검출된 차로부터 상기 두 점들 사이의 텍스추어 거리를 계산하고, 계산된 상기 텍스추어 거리를 출력하는 텍스추어 거리 계산부; 및
    상기 색 거리 계산부로부터 출력되는 상기 색 거리를 색 가중치와 승산하고, 상기 텍스추어 거리 계산부로부터 출력되는 상기 텍스추어 거리를 텍스추어 가중치와 승산하고, 승산된 결과들을 가산하고, 가산된 결과를 색-텍스추어 거리로서 출력하는 색-텍스추어 거리 발생부를 구비하고,
    색상이 휘도나 채도보다 중요하고 휘도가 절대값에 접근할 수록 색은 검정색이 되고, 채도가 상기 절대값에 접근할 수록 색상은 임의의 값을 가진다는 사실로부터 상기 중요도는 결정되는 것을 특징으로 하는 색-텍스추어 거리 측정 장치.
  13. 제12 항에 있어서, 상기 색 거리 계산부는 아래와 같이 상기 색 거리[DBHS1(x,y)](여기서, x와 y는 상기 두 점들을 각각 나타낸다.)를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 장치.
    [여기서, B(o)(여기서, o는 x 또는 y에 해당한다), H(o) 및 S(o)는 어느 점(o)에 대한 휘도, 색상 및 채도를 각각 나타내고,는 B(x)와 B(y)의 평균값을 나타내고,는 S(x)와 S(y)의 평균값을 나타내고, WB, a 및 b들은 각각 상수에 해당하고, FS(j)는 채도에 대한 선형 보정 함수를 나타내고, FH(j)는 색에 대한 선형 보정 함수를 나타낸다.]
  14. 제13 항에 있어서, 상기 선형 보정 함수[FS(j) 또는 FH(j)]는 j가 1보다 적으면 j이 되고, j가 1이상이면 1이 되는 것을 특징으로 하는 색-텍스추어 거리 측정 장치.
  15. 제12 항에 있어서, 상기 색 거리 계산부는 아래와 같이 상기 색거리[DBHS2 2(x,y)](여기서, x와 y는 상기 색 공간상에서 두 점들을 각각 나타낸다.)를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 장치.
    [여기서, B(o)(여기서, o는 x 또는 y에 해당한다.), H(o) 및 S(o)는 어느 점(o)에 대한 휘도, 색상 및 채도를 각각 나타내고, WB, WH및 WS들은 각각 상수에 해당하고, FS(ㆍ,ㆍ)는 채도에 대한 비 선형 보정 함수를 나타내고, FH(ㆍ,ㆍ)는 색에 대한 비 선형 보정 함수를 나타낸다.]
  16. 제13 항 또는 제15 항에 있어서, 상기 텍스추어 거리 계산부는 아래와 같이 상기 텍스추어 거리[Dt(x,y)]를 계산하는 것을 특징으로 하는 색-텍스추어 거리 측정 장치.
    [여기서, wz는 상기 가중 계수를 나타내고, tk z(x) 및 tk z(y)들은 x 및 y의 상기 텍스추어 특성치들을 각각 나타내고, k=1, 2, ...., K에 해당하고, z=1, 2, ..., Z에 해당하고, Z는 소정수를 나타낸다.]
  17. 제16 항의 색-텍스추어 거리 측정 장치에서 계산된 상기 색-텍스추어 거리를 이용하여 입력 영상을 다수개의 영역들로 구분하는 영상의 영역 구분 장치에 있어서,
    상기 입력 영상을 소정 횟수만큼 반복적으로 평활화시키고, 평활화된 영상에서 엣지 부분을 강조하여 출력하는 영상 전 처리부;
    상기 영상 전 처리부로부터 출력되는 영상으로부터 상기 색 특성치들과 상기 텍스추어 특성치들을 화소 단위로 계산하고, 계산된 상기 색 및 상기 텍스추어 특성치들을 상기 색-텍스추어 거리 측정 장치로 출력하는 특성치 계산부;
    피라미드 영역 구분법에 의거하고, 상기 색-텍스추어 거리 발생부로부터 출력되는 상기 색-텍스추어 거리와 제1 문턱값을 비교하고, 비교된 결과에 응답하여 상기 영상의 영역을 세분하고, 세분된 영역들에 대한 정보를 갖는 기초 영역 구분 지도로부터 영상 그래프를 생성하여 출력하는 주요 영역 구분부; 및
    상기 색-텍스추어 거리 발생부로부터 출력되는 상기 색-텍스추어 거리와 제2 문턱값을 비교하고, 비교된 결과에 응답하여 상기 영상 그래프를 단순화하고, 단순화된 영상 그래프로부터 얻은 최종 영상 그래프를 출력하는 영상 그래프 단순화부를 구비하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 장치.
  18. 제17 항에 있어서, 상기 색-텍스추어 거리 발생부는 소정의 상기 색 가중치(wc)와 상기 색 거리를 승산하고, 소정의 상기 텍스추어 가중치(wt)와 상기 텍스추어 거리를 승산하고, 승산된 결과를 가산하고, 가산된 결과를 상기 색-텍스추어 거리로서 상기 주요 영역 구분부로 출력하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 장치.
  19. 제18 항에 있어서, 상기 색-텍스추어 거리 발생부는 상기 세분화된 영역들의 텍스추어 정도[t(u',v')](여기서, u' 및 v'는 상기 세분화된 영역들을 각각 나타낸다.), 상기 세분화된 영역들의 크기[p(u',v')] 및 상기 세분화된 영역들의 채도[s(u',v')]에 상응하여 가변되는 상기 색 가중치[wc(u', v')] 및 상기 텍스추어 가중치[wt(u', v')]를 상기 색 거리 및 상기 텍스추어 거리와 각각 승산하고, 승산된 결과들을 가산하고, 가산된 결과를 상기 색-텍스추어 거리로서 상기 영상 그래프 단순화부로 출력하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 장치.
  20. 제19 항에 있어서, 상기 색-텍스추어 거리 발생부는
    아래와 같이 색 가중치[wc(u', v')]를 계산하는 색 가중치 계산부; 및
    [여기서,은 색 및 텍스추어 가중 상수들을 각각 나타내고,(여기서, Tmax는 상기 세분화된 영상들의 텍스추어 정도의 최대값을 나타낸다.),(여기서, Po는 상기 세분화된 영역들의 크기의 문턱값을 나타낸다.) 및(여기서, So는 상기 세분화된 영역들의 채도의 문턱값을 나타낸다.)을 나타낸다.]
    아래와 같이 상기 텍스추어 가중치[wt(u', v')]를 계산하는 텍스추어 가중치 계산부를 구비하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 장치.
  21. 제20 항에 있어서, 영상 그래프 단순화부는
    상기 색-텍스추어 거리와 상기 제2 문턱값을 비교하고, 비교된 결과에 응답하여 상기 영상 그래프상에 표시된 두개의 상기 세분화된 영역들(u', v')을 병합하고, 병합된 최종 결과를 반영하여 생성한 제1 중간 영상 그래프를 출력하는 제1차 영역 병합부;
    제1 색-텍스추어 거리와 상기 제2 문턱값을 비교하고, 비교된 결과에 응답하여 상기 제1 중간 영상 그래프상에 표시된 두개의 영역들(u", v")]을 병합하고, 병합된 최종 결과를 반영하여 생성한 제2 중간 영상 그래프를 출력하는 제2차 영역 병합부; 및
    제2 색-텍스추어 거리와 상기 제2 문턱값을 비교하고, 비교된 결과에 응답하여 상기 제2 중간 영상 그래프상에 표시된 두개의 영역들(u"', v"')]을 병합하고, 병합된 최종 결과를 반영하여 생성한 상기 최종 영상 그래프를 출력하는 제3차 영역 병합부를 구비하고,
    상기 색-텍스추어 거리 발생부는 상기 색 가중 상수()가 '0'으로 설정될 때 상기 색 가중치 계산부로부터 출력되는 상기 색 가중치[wc(u", v")] 및 상기 텍스추어 가중치 계산부로부터 출력되는 텍스추어 가중치[wt(u", v")]를 WH≪ WB및 WS≪ WB의 조건에서 상기 색 및 상기 텍스추어 거리 계산부들로부터 각각 출력되는 상기 색 거리와 상기 텍스추어 거리에 각각 승산하고, 승산된 결과들을 가산하며, 가산된 결과를 상기 제1 색-텍스추어 거리로서 출력하고,
    상기 색-텍스추어 거리 발생부는의 조건에서 상기 색 및 상기 텍스추어 가중치 계산부들로부터 각각 출력되는 상기 색 가중치[wc(u"', v"')]와 상기 텍스추어 가중치[wt(u"', v"')]를 상기 색 거리와 상기 텍스추어 거리에 각각 승산하고, 승산된 결과들을 가산하며, 가산된 결과를 상기 제2 색-텍스추어 거리로서 출력하고,
    상기 제2 문턱값은 상기 영역의 크기에 따라 유동적으로 변하는 것을 특징으로 하는 색-텍스추어 거리를 이용한 영상의 영역 구분 장치.
KR10-2000-0067105A 2000-11-13 2000-11-13 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치 KR100378351B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR10-2000-0067105A KR100378351B1 (ko) 2000-11-13 2000-11-13 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치
EP20010308622 EP1217580B1 (en) 2000-11-13 2001-10-09 Method and apparatus for measuring color-texture distance and image segmentation based on said measure
US09/983,034 US7030885B2 (en) 2000-11-13 2001-10-22 Method and apparatus for measuring color-texture distance, and method and apparatus for sectioning image into plurality of regions using measured color-texture distance
JP2001347688A JP3554930B2 (ja) 2000-11-13 2001-11-13 色−テクスチャ距離の測定方法及び装置並びにこれらを用いた映像の領域区分方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0067105A KR100378351B1 (ko) 2000-11-13 2000-11-13 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20020037113A KR20020037113A (ko) 2002-05-18
KR100378351B1 true KR100378351B1 (ko) 2003-03-29

Family

ID=19698595

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0067105A KR100378351B1 (ko) 2000-11-13 2000-11-13 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치

Country Status (4)

Country Link
US (1) US7030885B2 (ko)
EP (1) EP1217580B1 (ko)
JP (1) JP3554930B2 (ko)
KR (1) KR100378351B1 (ko)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
FR2825814B1 (fr) * 2001-06-07 2003-09-19 Commissariat Energie Atomique Procede de creation automatique d'une base de donnees images interrogeable par son contenu semantique
US7623704B2 (en) * 2003-01-31 2009-11-24 Fuji Xerox Co. Ltd. Color processing method, color processing apparatus, and storage medium
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7536036B2 (en) * 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US20050140801A1 (en) * 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US7280117B2 (en) * 2004-09-10 2007-10-09 Avid Technology, Inc. Graphical user interface for a keyer
JP4506409B2 (ja) * 2004-10-27 2010-07-21 株式会社デンソー 領域分割方法及び装置、画像認識処理装置、プログラム、記録媒体
IL165556A (en) 2004-12-05 2013-08-29 Yair Shimoni A system and method for automatically detecting object inconsistencies in a sequence of images
US20060182339A1 (en) * 2005-02-17 2006-08-17 Connell Jonathan H Combining multiple cues in a visual object detection system
US20060228021A1 (en) * 2005-04-06 2006-10-12 Marco Leoni Method and system for producing fabrics with a large number of colors
US7522749B2 (en) * 2005-04-08 2009-04-21 Microsoft Corporation Simultaneous optical flow estimation and image segmentation
WO2006131970A1 (ja) * 2005-06-09 2006-12-14 Techno Visual Corporation 動画像圧縮プログラム及び動画像伸長プログラム
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
EP1987475A4 (en) 2006-02-14 2009-04-22 Fotonation Vision Ltd AUTOMATIC DETECTION AND CORRECTION OF RED EYE FLASH DEFECTS
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
KR100809346B1 (ko) * 2006-07-03 2008-03-05 삼성전자주식회사 엣지 보정 장치 및 방법
US7755646B2 (en) 2006-10-17 2010-07-13 Hewlett-Packard Development Company, L.P. Image management through lexical representations
US8572642B2 (en) 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
US9363576B2 (en) 2007-01-10 2016-06-07 Steven Schraga Advertisement insertion systems, methods, and media
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
KR101159830B1 (ko) 2007-03-05 2012-06-26 디지털옵틱스 코포레이션 유럽 리미티드 얼굴 위치 및 방위를 이용한 적목 거짓 양성 필터링 방법
CN101334780A (zh) * 2007-06-25 2008-12-31 英特维数位科技股份有限公司 人物影像的搜寻方法、***及存储影像元数据的记录媒体
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8374436B2 (en) * 2008-06-30 2013-02-12 Thomson Licensing Method for detecting layout areas in a video image and method for generating an image of reduced size using the detection method
US9078048B1 (en) 2008-07-15 2015-07-07 Google Inc. Finding and populating spatial ad surfaces in video
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8498480B2 (en) * 2009-02-25 2013-07-30 The United States Of America, As Represented By The Secretary Of The Navy Computationally efficient method for image segmentation with intensity and texture discrimination
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
JP5538967B2 (ja) 2009-06-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP5391876B2 (ja) * 2009-07-01 2014-01-15 日本電気株式会社 代表特徴抽出システム、方法およびプログラム
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
TWI469087B (zh) * 2011-04-26 2015-01-11 Univ Nat Cheng Kung 深度圖產生方法
JP5782838B2 (ja) 2011-05-27 2015-09-24 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
RU2489752C2 (ru) * 2011-08-15 2013-08-10 Дмитрий Валерьевич Шмунк Способ сегментации изображений
US8804122B2 (en) * 2011-09-22 2014-08-12 Brightex Bio-Photonics Llc Systems and methods for determining a surface profile using a plurality of light sources
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
CN102694958B (zh) * 2012-02-10 2013-12-18 华为终端有限公司 一种确定图像色相的方法和无线手持设备
US8484607B1 (en) 2012-03-06 2013-07-09 International Business Machines Corporation Decomposing layout for triple patterning lithography
US9122927B2 (en) 2012-03-26 2015-09-01 Google Inc. Generating an image tour based on a set of images
CN110825983A (zh) 2012-08-08 2020-02-21 谷歌有限责任公司 浏览图像图形内的兴趣点的图像
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
KR20150100113A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
JP6491581B2 (ja) * 2015-10-06 2019-03-27 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
WO2017175231A1 (en) * 2016-04-07 2017-10-12 Carmel Haifa University Economic Corporation Ltd. Image dehazing and restoration
US11405529B2 (en) 2018-05-15 2022-08-02 Hewlett-Packard Development Company, L.P. Color table generation
CN110895699B (zh) * 2018-09-12 2022-09-13 北京字节跳动网络技术有限公司 用于处理图像的特征点的方法和装置
CN110782025B (zh) * 2019-12-31 2020-04-14 长沙荣业智能制造有限公司 一种稻米加工在线工艺检测方法
CN113763486B (zh) * 2020-06-01 2024-03-01 北京达佳互联信息技术有限公司 主色调提取方法、装置、电子设备及存储介质
CN117788458B (zh) * 2024-02-23 2024-05-14 中建安装集团有限公司 一种lng空温气化器基础砼寿命分析方法、介质及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751450A (en) * 1996-05-22 1998-05-12 Medar, Inc. Method and system for measuring color difference
JPH10155085A (ja) * 1996-11-21 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> カラー/テクスチャ情報変換装置
US5923780A (en) * 1996-08-21 1999-07-13 Max-Planck-Gesellschaft Method for detecting target patterns in a texture region using probability densities
JP2000207566A (ja) * 1999-01-18 2000-07-28 Ricoh Co Ltd テクスチャ特徴抽出装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463432B1 (en) * 1998-08-03 2002-10-08 Minolta Co., Ltd. Apparatus for and method of retrieving images
US6731792B1 (en) * 1998-08-24 2004-05-04 Minolta Co., Ltd. Method and apparatus for accurately dividing a color image into proper regions, and storage media storing a program for executing such a method
US6674905B1 (en) * 1999-01-22 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
KR100439697B1 (ko) * 1999-02-05 2004-07-14 삼성전자주식회사 컬러 영상 처리 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751450A (en) * 1996-05-22 1998-05-12 Medar, Inc. Method and system for measuring color difference
US5923780A (en) * 1996-08-21 1999-07-13 Max-Planck-Gesellschaft Method for detecting target patterns in a texture region using probability densities
JPH10155085A (ja) * 1996-11-21 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> カラー/テクスチャ情報変換装置
JP2000207566A (ja) * 1999-01-18 2000-07-28 Ricoh Co Ltd テクスチャ特徴抽出装置

Also Published As

Publication number Publication date
US7030885B2 (en) 2006-04-18
JP3554930B2 (ja) 2004-08-18
EP1217580A2 (en) 2002-06-26
KR20020037113A (ko) 2002-05-18
JP2002170117A (ja) 2002-06-14
EP1217580B1 (en) 2013-04-17
US20020090133A1 (en) 2002-07-11
EP1217580A3 (en) 2003-10-08

Similar Documents

Publication Publication Date Title
KR100378351B1 (ko) 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치
KR100374791B1 (ko) 영상의 영역 구분 방법 및 장치
US10339643B2 (en) Algorithm and device for image processing
Rahman et al. An adaptive gamma correction for image enhancement
JP3740065B2 (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
Saarinen Color image segmentation by a watershed algorithm and region adjacency graph processing
Saha et al. Mutual spectral residual approach for multifocus image fusion
CN104966285B (zh) 一种显著性区域的检测方法
Tsai Adaptive local power-law transformation for color image enhancement
Parihar et al. Fusion‐based simultaneous estimation of reflectance and illumination for low‐light image enhancement
Harb et al. Improved image magnification algorithm based on Otsu thresholding
Liu et al. Image contrast enhancement based on intensity expansion-compression
CN110268442B (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
Herrault et al. Automatic extraction of forests from historical maps based on unsupervised classification in the CIELab color space
Karalı et al. Adaptive image enhancement based on clustering of wavelet coefficients for infrared sea surveillance systems
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
Sujee et al. Image enhancement through pyramid histogram matching
JP2014016688A (ja) 顕著性マップを利用した非写実変換プログラム、装置及び方法
KR20050085355A (ko) 분할된 이미지로부터 폴스 엣지들을 제거하는 방법 및 장치
CN110751157B (zh) 图像显著性分割、图像显著性模型训练方法及装置
Lagodzinski et al. Application of the extended distance transformation in digital image colorization
Silverman et al. Segmentation of hyperspectral images based on histograms of principal components
Huang et al. An efficient single image enhancement approach using luminance perception transformation
CN113947640A (zh) 一种图像驱动的可视化和谐配色生成方法
CN107085725A (zh) 一种通过基于自适应码本的llc聚类图像区域的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee