KR101028628B1 - Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same - Google Patents

Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same Download PDF

Info

Publication number
KR101028628B1
KR101028628B1 KR1020080135222A KR20080135222A KR101028628B1 KR 101028628 B1 KR101028628 B1 KR 101028628B1 KR 1020080135222 A KR1020080135222 A KR 1020080135222A KR 20080135222 A KR20080135222 A KR 20080135222A KR 101028628 B1 KR101028628 B1 KR 101028628B1
Authority
KR
South Korea
Prior art keywords
texture
image
pixel
texture image
filtering
Prior art date
Application number
KR1020080135222A
Other languages
Korean (ko)
Other versions
KR20100077307A (en
Inventor
이승용
이현준
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020080135222A priority Critical patent/KR101028628B1/en
Publication of KR20100077307A publication Critical patent/KR20100077307A/en
Application granted granted Critical
Publication of KR101028628B1 publication Critical patent/KR101028628B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)

Abstract

양방향 필터링 기법 및 다중 해상도 처리 기법으로 영상의 텍스쳐를 필터링하여 텍스쳐 정보 및 구조 정보를 산출하는 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치가 개시된다. 영상 텍스쳐 필터링 방법은, (a) 영상의 텍스쳐 정보를 추출하는 단계 및 (b) 추출된 텍스쳐 정보를 이용하여 영상을 양방향 텍스쳐 필터링하는 단계를 포함한다. 따라서 더 자연스럽고 안정적인 구조 정보를 보여 주고, 서로 다른 텍스쳐 사이의 경계면에서 텍스쳐 정보를 보다 더 효과적으로 분할할 수 있으며, 영상의 상세 정보를 보다 더 효과적으로 나타낼 수 있다.Disclosed are an image texture filtering method for calculating texture information and structure information by filtering an image texture using a bidirectional filtering technique and a multi-resolution processing technique, a recording medium recording a program for performing the same, and an apparatus for performing the same. The image texture filtering method includes (a) extracting texture information of an image and (b) bidirectional texture filtering the image using the extracted texture information. Therefore, it is possible to show more natural and stable structure information, to divide texture information more effectively at the interface between different textures, and to display detailed information of the image more effectively.

영상, 텍스쳐, 필터링, 구조, 양방향 Image, texture, filtering, structure, bidirectional

Description

영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치{IMAGE TEXTURE FILTERING METHOD, STORAGE MEDIUM OF STORING PROGRAM FOR EXECUTING THE SAME AND APPARATUS PERFORMING THE SAME}IMAGE TEXTURE FILTERING METHOD, STORAGE MEDIUM OF STORING PROGRAM FOR EXECUTING THE SAME AND APPARATUS PERFORMING THE SAME}

본 발명은 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 영상의 텍스쳐를 필터링하여 텍스쳐 정보와 구조 정보를 산출하는 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치에 관한 것이다.The present invention relates to an image processing method, and more particularly, to an image texture filtering method for calculating texture information and structure information by filtering a texture of an image, a recording medium recording a program for performing the same, and an apparatus for performing the same.

영상 필터링(Image Filtering)은 영상 처리(Image Processing)의 기본 작업 중의 하나이다. 필터링은 영상의 각 화소에 어떤 함수를 적용시켜 영상의 정보를 더 효과적으로 드러내는 것이다. 필터링 기법 중 영상 평탄화(Image Smoothing)는 영상의 노이즈나 지나치게 자세한 상세 정보(Detail Information)를 제거한다. 가우시안 평탄화(Gaussian Smoothing)는 평탄화 기법의 기본 기법으로서, 영상의 큰 구조까지 평탄화하여 영상의 내용을 파악하기 어렵게 한다는 단점이 있다.Image filtering is one of the basic tasks of image processing. Filtering is to apply a function to each pixel of the image to reveal the information of the image more effectively. Image smoothing removes noise and excessive detail information of an image. Gaussian smoothing is a basic technique of the flattening technique, and has a disadvantage in that it is difficult to grasp the contents of the image by flattening the large structure of the image.

이러한 가우시안 평탄화의 단점을 해결하기 위하여 다양한 평탄화 기법이 연구되었는데, 그 중 양방향 필터링(Bilateral Filtering) 기법은 영상을 평탄화할 때 영상의 색차에 따른 경계 부분을 보존하면서 영상을 효과적으로 평탄화하는 기 법이다.Various flattening techniques have been studied to solve the disadvantages of Gaussian flattening. Among them, bilateral filtering is a method of effectively flattening the image while preserving the boundary part according to the color difference of the image.

한편, 영상의 스타일을 찾아내고 분석하는 텍스쳐 분석(Texture Analysis)은, 컴퓨터 비전(Computer Vision) 및 영상 처리의 한 분야로서, 영상에 존재하는 텍스쳐의 형태, 크기, 방향 등을 분석하는 방법인데, 이를 이용하여 영상 분할(Image Segmentation), 영상 분류(Image Classification) 등을 수행할 수 있다.On the other hand, texture analysis, which finds and analyzes the style of the image, is a field of computer vision and image processing, and is a method of analyzing the shape, size, and direction of textures existing in the image. Image segmentation, image classification, and the like may be performed using this.

그런데 종래의 영상 상세 정보 부각(Image Detail Enhancement) 기법은 단순히 영상의 상세 정보를 부각시키거나 영상의 품질을 향상시키는 수준에 그치고, 기존의 구조-텍스쳐 분리 (Structure-Texture Decomposition) 기법이나 영상 텍스쳐 분할(Image Texture Segmentation) 기법도 텍스쳐의 경계의 처리에 있어서 부자연스러운 결과를 낳았다. 또한 종래 기술로는 복잡한 영상의 텍스쳐 경계에서 서로 다른 텍스쳐 정보를 효과적으로 구분해 내기 어려운 면이 있었다.However, the conventional Image Detail Enhancement technique merely enhances the detail information of the image or improves the quality of the image, and is a conventional structure-texture decomposition technique or image texture segmentation. The Image Texture Segmentation technique also produced unnatural results in the handling of texture boundaries. In addition, the conventional technology has a difficulty in effectively distinguishing different texture information from the texture boundary of a complex image.

따라서 본 발명의 제1 목적은 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법을 제공하는 것이다.Accordingly, a first object of the present invention is to provide an image texture filtering method using a bidirectional texture filtering technique.

그리고 본 발명의 제2 목적은 양방향 텍스쳐 필터링 기법을 이용한 다중 해상도 영상 텍스쳐 필터링 방법을 제공하는 것이다.A second object of the present invention is to provide a multi-resolution image texture filtering method using a bidirectional texture filtering technique.

또한 본 발명의 제3 목적은 상기와 같은 영상 텍스쳐 필터링 방법을 수행하는 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체를 제공하는 것이다.In addition, a third object of the present invention is a program in which a program of instructions that can be executed by a digital processing apparatus that performs the image texture filtering method as described above is tangibly implemented, and records a program that can be read by the digital processing apparatus. To provide a medium.

그리고 본 발명의 제4 목적은 상기와 같은 다중 해상도 영상 텍스쳐 필터링 방법을 수행하는 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체를 제공하는 것이다.A fourth object of the present invention is to programmatically implement a program that can be executed by a digital processing apparatus that performs the multi-resolution image texture filtering method as described above, and to read a program that can be read by the digital processing apparatus. It is to provide a recording medium.

또한 본 발명의 제5 목적은 상기와 같은 방법을 수행하는 영상 텍스쳐 필터링 장치를 제공하는 것이다.In addition, a fifth object of the present invention is to provide an image texture filtering apparatus which performs the above method.

마지막으로 본 발명의 제6 목적은 상기와 같은 방법을 수행하는 다중 해상도 영상 텍스쳐 필터링 장치를 제공하는 것이다.Finally, a sixth object of the present invention is to provide a multi-resolution image texture filtering apparatus which performs the above method.

상술한 본 발명의 제1 목적을 달성하기 위한 본 발명의 일 실시예에 따른 양 방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법은, (a) 영상의 텍스쳐 정보를 추출하는 단계 및 (b) 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하는 단계를 포함한다.An image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention for achieving the first object of the present invention, (a) extracting the texture information of the image and (b) extracted And bi-directional texture filtering the image using the texture information.

상기 텍스쳐 정보는 상기 영상의 화소별 색상 히스토그램 및 화소별 구조 텐서 정보 중 적어도 하나를 포함할 수 있다.The texture information may include at least one of a color histogram for each pixel of the image and structural tensor information for each pixel.

상기 화소별 색상 히스토그램은 상기 영상의 특정 중심 화소의 색상 값 및 상기 특정 화소로부터 미리 정하여진 범위 내의 주변 화소의 색상 값에 기초하여 계산되고, 상기 화소별 구조 텐서 정보는 상기 영상의 특정 중심 화소의 구조 텐서 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소의 구조 텐서에 기초하여 계산될 수 있다.The color histogram for each pixel is calculated based on a color value of a specific center pixel of the image and a color value of a neighboring pixel within a predetermined range from the specific pixel, and the structure-specific tensor information of the pixel is included in the specific center pixel of the image. It can be calculated based on the structural tensor and the structural tensor of the peripheral pixels within a predetermined range from the specific pixel.

상기 화소별 구조 텐서 정보는 상기 중심 화소의 구조 텐서 및 상기 주변 화소의 구조 텐서의 평균값일 수 있다.The structural tensor information for each pixel may be an average value of the structural tensor of the center pixel and the structural tensor of the peripheral pixel.

상기 구조 텐서는 화소의 그라디언트 값에 기초할 수 있다.The structural tensor may be based on a gradient value of the pixel.

상기 영상 텍스쳐 필터링 방법은, (c) 필터링된 텍스쳐 영상을 이용하여 상기 영상의 구조 정보를 획득하는 단계를 더 포함할 수 있다.The image texture filtering method may further include (c) obtaining structure information of the image by using the filtered texture image.

상기 (c) 단계는, 상기 영상의 특정 중심 화소 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소에 대하여 상기 중심 화소 및 상기 주변 화소간의 거리와, 상기 중심 화소의 텍스쳐 정보 및 상기 주변 화소의 텍스쳐 정보간의 거리에 기초하여 상기 영상의 상기 구조 정보를 산출할 수 있다.In the step (c), the distance between the center pixel and the peripheral pixel with respect to a specific center pixel of the image and a peripheral pixel within a predetermined range from the specific pixel, texture information of the center pixel, and texture information of the peripheral pixel The structure information of the image may be calculated based on a distance between the images.

상술한 본 발명의 제2 목적을 달성하기 위한 본 발명의 일 실시예에 따른 양 방향 텍스쳐 필터링 기법을 이용한 다중 해상도 영상 텍스쳐 필터링 방법은, (a) 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계와, (b) 상기 제1 텍스쳐 영상을 미리 정하여진 배수로 다운샘플링하여 제2 텍스쳐 영상을 획득하는 단계와, (c) 상기 제2 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 단계와, (d) 상기 제2 텍스쳐 영상을 상기 미리 정하여진 배수로 업샘플링하고 상기 지역적 평탄도 배열을 이용하여 제3 텍스쳐 영상을 획득하는 단계를 포함한다.In the multi-resolution image texture filtering method using the two-way texture filtering technique according to an embodiment of the present invention for achieving the second object of the present invention, (a) bi-directional texture filtering to obtain a first texture image (B) downsampling the first texture image by a predetermined multiple to obtain a second texture image; (c) generating a local flatness arrangement from the second texture image; d) upsampling the second texture image by the predetermined multiple and acquiring a third texture image using the local flatness arrangement.

상기 (a) 단계는, 상기 영상의 텍스쳐 정보를 추출하는 단계 및 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하여 상기 제1 텍스쳐 영상을 획득하는 단계를 포함할 수 있다.The step (a) may include extracting texture information of the image, and obtaining the first texture image by bidirectional texture filtering the image by using the extracted texture information.

상기 (c) 단계는, 상기 제2 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제4 텍스쳐 영상을 획득하는 단계 및 상기 제4 텍스쳐 영상으로부터 상기 지역적 평탄도 배열을 생성하는 단계를 포함할 수 있다.The step (c) may include obtaining a fourth texture image by bidirectional texture filtering the second texture image and generating the local flatness arrangement from the fourth texture image.

상기 (c) 단계는, 상기 제2 텍스쳐 영상의 특정 중심 화소 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소에 대하여 상기 중심 화소 및 상기 주변 화소간의 거리와, 상기 중심 화소의 영상 히스토그램 및 상기 주변화소의 히스토그램간의 거리와, 상기 중심 화소의 구조 텐서 및 상기 주변 화소의 구조 텐서간의 거리에 기초하여 상기 지역적 평탄도 배열의 화소별 원소를 산출할 수 있다.In the step (c), the distance between the center pixel and the peripheral pixel with respect to a specific center pixel of the second texture image and a peripheral pixel within a predetermined range from the specific pixel, an image histogram of the center pixel, and the peripheral pixel An element for each pixel of the regional flatness array may be calculated based on a distance between histograms and a distance between a structural tensor of the center pixel and a structural tensor of the peripheral pixel.

화소의 영상 히스토그램간의 거리는 쿨백-라이블러 발산을 이용하여 계산될 수 있다.The distance between the image histograms of the pixels may be calculated using coolback-ribbler divergence.

상기 (d) 단계는, 상기 제2 텍스쳐 영상 및 상기 지역적 평탄도 배열을 상기 미리 정하여진 배수로 확대하는 단계 및 확대된 상기 지역적 평탄도 배열을 이용하여 상기 제1 텍스쳐 영상 및 확대된 상기 제2 텍스쳐 영상을 병합하여 상기 제1 텍스쳐 영상과 동일한 크기의 상기 제3 텍스쳐 영상을 획득하는 단계를 포함할 수 있다.The step (d) may include: expanding the second texture image and the local flatness arrangement in the predetermined multiple, and using the enlarged local flatness arrangement, the first texture image and the enlarged second texture. And merging the images to obtain the third texture image having the same size as the first texture image.

상기 (d) 단계는, 하기의 수학식,Step (d) is the following equation,

Figure 112008089613559-pat00001
Figure 112008089613559-pat00001

(여기서 s는 화소, Fi -1 *는 확대된 상기 지역적 평탄도 배열, Ui -1 *는 확대된 상기 제2 텍스쳐 영상, Di는 상기 제1 텍스쳐 영상, Ui는 상기 제3 텍스쳐 영상임)(Where s is a pixel, F i -1 * is the enlarged local flatness array, U i -1 * is the enlarged second texture image, D i is the first texture image, and U i is the third texture) Video)

에 따라 상기 제3 텍스쳐 영상을 획득할 수 있다.According to the third texture image can be obtained.

상기 (d) 단계는 상기 제2 텍스쳐 영상 및 상기 지역적 평탄도 배열을 겹삼차 보간법을 이용하여 상기 미리 정하여진 배수로 확대할 수 있다.In the step (d), the second texture image and the local flatness arrangement may be enlarged to the predetermined multiple by using a triple cubic interpolation method.

상기 다중 해상도 영상 텍스쳐 필터링 방법은, (e) 상기 제3 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제5 텍스쳐 영상을 획득하는 단계를 더 포함할 수 있다.The multi-resolution image texture filtering method may further include (e) obtaining a fifth texture image by performing bidirectional texture filtering on the third texture image.

상술한 본 발명의 제3 목적을 달성하기 위한 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법을 수행하는 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체는, (a) 영상의 텍스쳐 정보를 추출하는 단계 및 (b) 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하는 단계를 수행하는 프로그램을 기록한다.In order to achieve the third object of the present invention, a program of instructions that can be executed by a digital processing apparatus that performs an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention is tangibly implemented. And (a) extracting texture information of the image, and (b) bidirectional texture filtering the extracted image using the extracted texture information. Record the program you are running.

상술한 본 발명의 제4 목적을 달성하기 위한 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 다중 해상도 영상 텍스쳐 필터링 방법을 수행하는 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체는, (a) 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계와, (b) 상기 제1 텍스쳐 영상을 미리 정하여진 배수로 다운샘플링하여 제2 텍스쳐 영상을 획득하는 단계와, (c) 상기 제2 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 단계와, (d) 상기 제2 텍스쳐 영상을 상기 미리 정하여진 배수로 업샘플링하고 상기 지역적 평탄도 배열을 이용하여 제3 텍스쳐 영상을 획득하는 단계를 수행하는 프로그램을 기록한다.In order to achieve the fourth object of the present invention, a program of instructions that can be executed by a digital processing apparatus that performs a multi-resolution image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention is tangibly implemented. The recording medium recording a program that can be read by the digital processing apparatus comprises: (a) obtaining a first texture image by bidirectional texture filtering the image; and (b) predetermine the first texture image. Downsampling to a true multiple to obtain a second texture image; (c) generating a local flatness array from the second texture image; and (d) upsampling the second texture image to the predetermined multiple. And obtaining a third texture image using the local flatness arrangement. Lock it.

상술한 본 발명의 제5 목적을 달성하기 위한 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 장치는, 영상의 텍스쳐 정보를 추출하는 텍스쳐 정보 추출부 및 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하는 텍스쳐 필터링부를 포함한다.An image texture filtering apparatus using a bidirectional texture filtering technique according to an embodiment of the present invention for achieving the fifth object of the present invention, a texture information extractor for extracting texture information of an image and the extracted texture information; And a texture filtering unit to bi-directional texture filter the image using the image.

상기 텍스쳐 정보는 상기 영상의 화소별 색상 히스토그램 및 화소별 구조 텐서 정보 중 적어도 하나를 포함할 수 있다.The texture information may include at least one of a color histogram for each pixel of the image and structural tensor information for each pixel.

상기 영상 텍스쳐 필터링 장치는, 필터링된 텍스쳐 영상을 이용하여 상기 영상의 구조 정보를 획득하는 구조 정부 획득부를 더 포함할 수 있다.The image texture filtering apparatus may further include a structure obtaining unit obtaining the structure information of the image by using the filtered texture image.

상술한 본 발명의 제6 목적을 달성하기 위한 본 발명의 일 실시예에 따른 다 중 해상도 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 장치는, 영상을 양방향 텍스쳐 필터링하는 텍스쳐 필터링부와, 필터링된 텍스쳐 영상을 다운샘플링 또는 업샘플링하는 샘플링부와, 샘플링된 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 지역적 평탄도 배열 생성부 및 상기 지역적 평탄도 배열을 이용하여 상기 필터링된 텍스쳐 영상 및 상기 샘플링된 텍스쳐 영상을 병합하는 영상 병합부를 포함한다.An image texture filtering apparatus using a multi-resolution bidirectional texture filtering technique according to an embodiment of the present invention for achieving the sixth object of the present invention, a texture filtering unit for bidirectional texture filtering the image, and the filtered texture image The filtered texture image and the sampled texture image using a sampling unit for downsampling or upsampling a locality; a locality flatness array generator for generating a locality flatness array from a sampled texture image; and the locality flatness array. It includes a video merging unit for merging.

상기 지역적 평탄도 배열 생성부는, 상기 샘플링된 텍스쳐 영상의 특정 중심 화소 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소에 대하여 상기 중심 화소 및 상기 주변 화소간의 거리와, 상기 중심 화소의 영상 히스토그램 및 상기 주변화소의 히스토그램간의 거리와, 상기 중심 화소의 구조 텐서 및 상기 주변 화소의 구조 텐서간의 거리에 기초하여 상기 지역적 평탄도 배열의 화소별 원소를 산출할 수 있다.The local flatness array generation unit may include a distance between the center pixel and the peripheral pixel with respect to a specific center pixel of the sampled texture image and a peripheral pixel within a predetermined range from the specific pixel, an image histogram of the center pixel, and the peripheral An element for each pixel of the local flatness array may be calculated based on a distance between histograms of pixels and a distance between the structure tensors of the center pixel and the structure tensors of the peripheral pixels.

상기 영상 병합부는, 상기 샘플링된 텍스쳐 영상 및 생성된 상기 지역적 평탄도 배열을 미리 정하여진 배수로 확대하고, 확대된 상기 지역적 평탄도 배열을 이용하여 상기 필터링된 텍스쳐 영상 및 확대된 상기 샘플링된 텍스쳐 영상을 병합할 수 있다.The image merging unit enlarges the sampled texture image and the generated local flatness array in a predetermined multiple, and uses the enlarged local flatness array to enlarge the filtered texture image and the enlarged sampled texture image. Can be merged.

상기와 같은 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치에 따르면, 종래 기법에 비해 더 자연스럽고 안정적인 구조 정보를 보여 주고, 서로 다른 텍스쳐 사이의 경계면에서 텍스쳐 정보를 보 다 더 효과적으로 분할할 수 있으며, 영상의 상세 정보를 보다 더 효과적으로 나타낼 수 있다.According to the above-described image texture filtering method, a recording medium recording a program for performing the same, and an apparatus for performing the same, the structure of the image texture is more natural and stable than the conventional technique, and the texture information is viewed at the interface between different textures. It is possible to divide more effectively, and to display the detailed information of the image more effectively.

그리고 영상의 텍스쳐 정보를 필터링함으로써 산출된 영상의 텍스쳐 정보와 구조 정보를 이용하여 영상을 평탄화하거나 컴퓨터 그래픽스와 컴퓨터 비전, 영상 처리의 다양한 응용 분야에서 영상 복원 및 수정, 삼차원 물체 노이즈 제거, 예술적 필터링 등에 활용될 수 있다. 예를 들어, 텍스쳐 분할 또는 텍스쳐 분류 등에 이용되어 영상의 물체 추출이나 물체 추적 등과 같은 기술이 필요한 로봇 비전 시장에서 활용될 수 있다. 그리고 영상 파손 복원 등에 이용되어 플러그 인 등의 형태로 상용 영상 처리 소프트웨어에서 사용될 수 있다. 또한 영상의 텍스쳐 전이(Texture Transfer)나 텍스쳐 교체(Texture Replacement) 등에 이용되어 영화나 애니메이션, 혹은 광고와 같이 시각적 효과가 매우 중요한 응용 분야에서 예술적 영상을 만들기 위해 사용될 수 있다.Image texture and structure information calculated by filtering the texture information of the image is used to flatten the image or to restore and modify the image in various applications of computer graphics, computer vision, image processing, 3D object noise removal, artistic filtering, etc. Can be utilized. For example, it may be used in texture division or texture classification, and may be used in the robot vision market that requires techniques such as image object extraction or object tracking. And it can be used in commercial image processing software in the form of a plug-in and the like used for restoring image damage. In addition, it can be used for texture transfer or texture replacement of images, and can be used to make artistic images in applications where visual effects are very important, such as movies, animations, or advertisements.

또한 다른 텍스쳐 및 영상 처리 기술의 기반 기술로 활용이 가능하며, 로봇 비전, 물체 추출, 물체 추적 등의 다양한 분야에서 로봇, 감시 카메라, 증강현실 등의 다양한 분야의 제품에서 사용될 수 있다.In addition, it can be used as a base technology of other texture and image processing technology, and can be used in various fields such as robots, surveillance cameras and augmented reality in various fields such as robot vision, object extraction, and object tracking.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것 으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징 들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 1을 참조하면, 우선 영상의 텍스쳐(Texture) 정보를 추출한다(S110). 상기 텍스쳐 정보는 최초의 양방향 텍스쳐 필터링(Bilateral Texture Filtering) 과정에 이용되는 초기 텍스쳐 정보이며, 상기 텍스쳐 정보는 영상의 각 화소(Pixel)에 대하여 색상 히스토그램(Histogram) 및 구조 텐서 정보(Structure Tensor Information) 중 적어도 하나를 포함한다. 즉, 텍스쳐 정보는 영상의 색상 히스토그램 및 구조 텐서 정보로 구성되는 색상-텍스쳐 모델(Color-Texture Model)이다.Referring to FIG. 1, first, texture information of an image is extracted (S110). The texture information is initial texture information used in a first bilateral texture filtering process, and the texture information includes color histogram and structure tensor information for each pixel of an image. At least one of the. That is, the texture information is a color-texture model composed of color histogram and structural tensor information of an image.

다만, 상기 영상이 이미 필터링된 텍스쳐 영상인 경우에는 상기 영상의 텍스쳐(Texture) 정보를 추출하는 단계(S110)는 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법의 구성요소로서 요구되지 아니한다.However, when the image is a filtered texture image, the extracting texture information of the image (S110) may be a component of an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention. Not required as

색상 히스토그램은 영상의 특정 중심 화소와, 중심 화소로부터 미리 정하여진 범위 내에 있는 주변 화소의 색상값으로 정의된다. 상기 미리 정하여진 범위의 크기에 따라 후술할 양방향 텍스쳐 필터링에서 처리되는 텍스쳐의 크기가 결정된다. 예를 들어, 상기 주변 화소는 상기 중심 화소로부터 2 ~ 3 화소 거리 내의 화소일 수 있다.The color histogram is defined as a color value of a specific center pixel of an image and surrounding pixels within a predetermined range from the center pixel. The size of the texture processed in the bidirectional texture filtering, which will be described later, is determined according to the size of the predetermined range. For example, the peripheral pixel may be a pixel within a 2-3 pixel distance from the center pixel.

색상 히스토그램은 영상의 색상 채널 (R,G,B)에 대하여 0 ~ 1까지의 값을 10 단계로 나누어 생성될 수 있다. 각 색상 채널은 독립적으로 처리되므로, 이 경우 각 화소별 색상 히스토그램은 30 차원 벡터(Vector)가 된다.The color histogram may be generated by dividing the values from 0 to 1 in 10 steps with respect to the color channels R, G, and B of the image. Since each color channel is processed independently, in this case, the color histogram for each pixel becomes a 30-dimensional vector.

구조 텐서 정보는 상기 중심 화소 및 상기 주변 화소의 구조 텐서의 평균으로 정의된다. 구조 텐서(Structure Tensor)는 영상을 회색조(그레이 스케일, Gray Scale) 영상으로 변환한 후, 상기 흑백 영상의 화소 그라디언트(Gradient) 값을 이용하여 2차원 행렬로서 정의될 수 있다.The structural tensor information is defined as an average of the structural tensors of the center pixel and the peripheral pixel. The structure tensor may be defined as a two-dimensional matrix by converting an image into a gray scale image and then using a pixel gradient value of the black and white image.

화소 그라디언트를 산출하는 과정을 이하 설명한다. 먼저 컬러 영상의 경우 화소별 밝기 값을 계산하여 회색조 영상으로 변환한다. 컬러 영상이 RGB 색상 모드에 있고 각각의 컬러 채널을 (R,G,B)로 나타나는 경우, 화소의 밝기 값(L)은, 예를 들어, 아래의 수학식 1과 같이 계산할 수 있다. 수학식 1은 화소의 밝기 값(L)을 계산하는 하나의 예시일 뿐이며, 특정 화소의 밝기 값을 최종적으로 도출할 수 있는 어떠한 식도 사용할 수 있다.The process of calculating the pixel gradient is described below. First, in the case of a color image, the brightness value of each pixel is calculated and converted into a grayscale image. When the color image is in the RGB color mode and each color channel is represented by (R, G, B), the brightness value L of the pixel may be calculated by, for example, Equation 1 below. Equation 1 is only one example of calculating the brightness value L of a pixel, and any equation may be used to finally derive the brightness value of a specific pixel.

Figure 112008089613559-pat00002
Figure 112008089613559-pat00002

화소 그라디언트는 각 화소마다 2차원 값으로 정의된다. 영상에서 (x,y)의 화소 밝기 값을 p(x,y)라 할 때, 예를 들어, 화소 그라디언트의 x 방향 성분(gx(x,y))은 p(x + 1,y) - p(x,y)로, y 방향 성분(gy(x,y))은 p(x,y + 1) - p(x,y)로 정의될 수 있다. 또는, 예를 들어, x 방향 성분(gx(x,y))은 p(x,y) - p(x - 1,y)와 같이 정의될 수도 있다. 화소 그라디언트의 크기(g(x,y))는, 예를 들어, 아래의 수학식 2와 같이 계산될 수 있다.Pixel gradients are defined by two-dimensional values for each pixel. When the pixel brightness value of (x, y) in the image is p (x, y), for example, the x-direction component (g x (x, y)) of the pixel gradient is p (x + 1, y) p (x, y), the y-direction component g y (x, y) may be defined as p (x, y + 1) −p (x, y). Or, for example, the x direction component g x (x, y) may be defined as p (x, y)-p (x-1, y). The size g (x, y) of the pixel gradient may be calculated by, for example, Equation 2 below.

Figure 112008089613559-pat00003
Figure 112008089613559-pat00003

화소 그라디언트 값을 이용하여 구조 텐서는 아래의 수학식 3과 같이 정의될 수 있다.Using the pixel gradient value, the structural tensor may be defined as in Equation 3 below.

Figure 112008089613559-pat00004
Figure 112008089613559-pat00004

여기서 p는 영상의 화소, gx는 화소 그라디언트의 x 방향 성분, gy는 화소 그라디언트의 y 방향 성분, ST는 구조 텐서이다.Where p is the pixel of the image, g x is the x-direction component of the pixel gradient, g y is the y-direction component of the pixel gradient, and ST is a structural tensor.

화소별 구조 텐서가 계산되면, 상술한 바와 같이 구조 텐서 정보는 아래의 수학식 4와 같이 상기 중심 화소 및 상기 주변 화소의 구조 텐서의 평균으로 정의될 수 있다.When the pixel-specific structural tensor is calculated, as described above, the structural tensor information may be defined as an average of structural tensors of the center pixel and the peripheral pixel as shown in Equation 4 below.

Figure 112008089613559-pat00005
Figure 112008089613559-pat00005

여기서 s는 중심 화소, p는 s로부터 미리 정하여진 범위 내의 주변 화소들의 집합인 N(s)에 속하는 주변 화소, ST는 구조 텐서, k는 정규화 상수, STI는 구조 텐서 정보이다.Where s is a center pixel, p is a peripheral pixel belonging to N (s) which is a set of peripheral pixels within a predetermined range from s, ST is a structural tensor, k is a normalization constant, and STI is structural tensor information.

색상 히스토그램과 마찬가지로 주변 화소에 포함되는지 여부를 결정하는 상기 미리 정하여진 범위에 따라 후술할 양방향 텍스쳐 필터링에서 처리되는 텍스쳐 의 크기가 결정된다.Like the color histogram, the size of the texture processed in the bidirectional texture filtering, which will be described later, is determined according to the predetermined range that determines whether the pixel is included in the neighboring pixel.

다음으로 추출된 상기 텍스쳐 정보(초기 텍스쳐 정보) 또는 후술할 필터링된 텍스쳐 정보를 이용하여 영상을 양방향 텍스쳐 필터링한다(S120). 영상의 각 화소에 대한 텍스쳐 정보가 산출되면, 산출된 상기 텍스쳐 정보를 이용하여 아래의 수학식 5와 같이 양방향 텍스쳐 필터링 작업을 수행한다.Next, the image is bi-directional texture filtered using the extracted texture information (initial texture information) or the filtered texture information to be described later (S120). When texture information of each pixel of the image is calculated, the bidirectional texture filtering is performed by using the calculated texture information as shown in Equation 5 below.

Figure 112008089613559-pat00006
Figure 112008089613559-pat00006

여기서 s는 중심 화소, p는 s로부터 미리 정하여진 범위 내의 주변 화소들의 집합인 N(s)에 속하는 주변 화소, k는 정규화 상수, T'는 화소의 양방향 텍스쳐 필터링된 텍스쳐 정보, T는 화소의 텍스쳐 정보, H는 화소의 영상 히스토그램, ST는 화소의 구조 텐서, σs, σh, σst는 양방향 텍스쳐 필터링에서 고려되는 주변 화소의 범위를 결정하는 사용자 파라미터이다. 예를 들어, σs는 2 ~ 3, σh는 0.1, σst 는 0.05의 값을 가질 수 있다. 특히 화소의 영상 히스토그램간의 거리는 쿨백-라이블러 발산(Kullback-Leibler Divergence)을 이용하여 계산될 수 있고, 화소의 구조 텐선간의 거리는 유클리드 거리(Euclidean Distance)일 수 있다. 따라서 WD(p), WH(p), WST(p)는 중심 화소의 특정 주변 화소와의 거리, 영상 히스토그램 및 구조 텐서의 유사도를 의미한다.Where s is a center pixel, p is a neighboring pixel belonging to N (s) which is a set of peripheral pixels within a predetermined range from s, k is a normalization constant, T 'is bidirectional texture filtered texture information of the pixel, and T is a Texture information, where H is the image histogram of the pixel, ST is the structure tensor of the pixel, and s s , s h and s st are user parameters that determine the range of surrounding pixels to be considered in bidirectional texture filtering. For example, sigma s may have values of 2 to 3, sigma h is 0.1, and sigma st is 0.05. In particular, the distance between the image histograms of the pixels may be calculated using Kullback-Leibler Divergence, and the distance between the structural lines of the pixels may be the Euclidean distance. Accordingly, WD (p), WH (p), and WST (p) refer to the similarity of the distance, the image histogram, and the structure tensor of the center pixel with specific peripheral pixels.

사용자의 선택에 의하여(S130) 상기 양방향 텍스쳐 필터링 단계(S120)가 1회 이상 수행될 수 있다. 이 경우 이전의 양방향 텍스쳐 필터링 단계(S120)의 결과인 필터링된 텍스쳐 정보가 다음 번의 양방향 텍스쳐 필터링 단계(S120)의 입력으로 이용된다.By the user's selection (S130), the bidirectional texture filtering step S120 may be performed one or more times. In this case, the filtered texture information that is the result of the previous bidirectional texture filtering step S120 is used as an input of the next bidirectional texture filtering step S120.

상기 양방향 텍스쳐 필터링 단계(S120)가 적어도 1회 이상 수행된 후, 사용자의 선택에 의하여(S130) 상기 양방향 텍스쳐 필터링 단계(S120)의 수행이 끝나면, 최종적으로 필터링된 텍스쳐 영상을 이용하여 영상의 구조 정보를 획득한다(S140). 상기 구조 정보는 상기 최종적으로 필터링된 텍스쳐 영상으로부터 얻어지는 결과 영상을 의미한다. 구체적으로 아래의 수학식 6과 같이 상기 구조 정보를 산출한다.After the bidirectional texture filtering step S120 is performed at least one time, and after the bidirectional texture filtering step S120 is finished by the user's selection (S130), the structure of the image using the finally filtered texture image is obtained. Obtain information (S140). The structure information refers to a resultant image obtained from the finally filtered texture image. Specifically, the structure information is calculated as shown in Equation 6 below.

Figure 112008089613559-pat00007
Figure 112008089613559-pat00007

여기서 s는 중심 화소, p는 s로부터 미리 정하여진 범위 내의 주변 화소들의 집합인 N(s)에 속하는 주변 화소, k는 정규화 상수, T'는 화소의 양방향 텍스쳐 필터링된 텍스쳐 정보, SI는 화소의 구조 정보이다.Where s is the center pixel, p is the peripheral pixel belonging to N (s) which is a set of peripheral pixels within a predetermined range from s, k is a normalization constant, T 'is bidirectional texture filtered texture information of the pixel, and SI is the pixel Structure information.

도 2는 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법의 수행 결과를 설명하기 위한 예시도이다.FIG. 2 is an exemplary diagram for describing an execution result of an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 2의 좌측 영상이 원본 영상이고, 도 2의 우측 영상이 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법이 적용된 결과 영상이다.The left image of FIG. 2 is an original image, and the right image of FIG. 2 is a result image to which an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention is applied.

도 3은 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 장치의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of an image texture filtering apparatus using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 장치는 텍스쳐 정보 추출부(210), 텍스쳐 필터링부(220) 및 구조 정보 획득부(230)를 포함한다.Referring to FIG. 3, an image texture filtering apparatus using a bidirectional texture filtering technique according to an embodiment of the present invention includes a texture information extractor 210, a texture filter 220, and a structure information acquirer 230. .

구체적으로, 텍스쳐 정보 추출부(210)는 입력 영상(291)에 대하여 텍스쳐 정보를 추출하고, 추출된 텍스쳐 정보(292)를 출력한다. 다만, 입력 영상이 이미 필터링된 텍스쳐 영상인 경우에 상기 텍스쳐 정보 추출부(210)는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 장치의 구성요소로서 요구되지 아니한다.In detail, the texture information extractor 210 extracts texture information from the input image 291 and outputs the extracted texture information 292. However, when the input image is a filtered texture image, the texture information extractor 210 is not required as a component of the multi-resolution image texture filtering device according to an embodiment of the present invention.

텍스쳐 필터링부(220)는, 상기 텍스쳐 정보 추출부(210)로부터 텍스쳐 정보(292)를 입력 받아, 텍스쳐 정보(292)를 이용하여 양방향 텍스쳐 필터링을 수행 하여 필터링된 텍스쳐 영상(293)을 산출하고, 필터링된 텍스쳐 영상(293)을 출력한다. 텍스쳐 필터링부(220)의 상기 양방향 텍스쳐 필터링 기능은 1회 이상 반복될 수 있으며, 이 경우 필터링된 텍스쳐 영상(293)은 다음 번 양방향 텍스쳐 필터링의 입력으로 다시 사용된다.The texture filtering unit 220 receives the texture information 292 from the texture information extracting unit 210, performs bidirectional texture filtering using the texture information 292, and calculates a filtered texture image 293. The filtered texture image 293 is output. The bidirectional texture filtering function of the texture filtering unit 220 may be repeated one or more times. In this case, the filtered texture image 293 is used again as an input for the next bidirectional texture filtering.

구조 정보 획득부(230)는, 상기 텍스쳐 필터링부(220)로부터 필터링된 텍스쳐 영상(293)을 입력 받아, 필터링된 텍스쳐 영상(293)으로부터 영상의 구조 정보(294)를 획득한다.The structure information obtaining unit 230 receives the filtered texture image 293 from the texture filtering unit 220 and obtains structure information 294 of the image from the filtered texture image 293.

텍스쳐 정보 추출부(210), 텍스쳐 필터링부(220) 및 구조 정보 획득부(230)에 대하여는 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법에서 도 1 및 도 2를 참조하여 영상의 텍스쳐 정보 추출 단계(S110), 양방향 텍스쳐 필터링 단계(S120) 및 영상의 구조 정부 획득 단계(S140)에 대하여 설명한 바와 유사한 방식으로 용이하게 이해될 수 있으므로 이하 설명은 생략한다.For the texture information extractor 210, the texture filter 220, and the structure information acquirer 230, refer to FIGS. 1 and 2 in an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention. The texture information extraction step (S110), the bidirectional texture filtering step (S120), and the structure information acquisition step (S140) of the image may be easily understood in a similar manner as described with reference to the following description.

도 4는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a multi-resolution image texture filtering method according to an embodiment of the present invention.

도 4를 참조하면, 우선 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득한다(S310). 이 경우 제1 텍스쳐 영상 획득 단계(S310)는 영상의 텍스쳐 정보를 추출하는 단계(S311) 및 추출된 텍스쳐 정보를 이용하여 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계(S313)를 포함할 수 있다. 다만, 상기 영상이 이미 필터링된 텍스쳐 영상인 경우에는 상기 영상의 텍스쳐 정보를 추출하는 단계(S311)는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 방법의 구성요소로서 요구되지 아니한다.Referring to FIG. 4, first, an image is bi-directionally filtered to obtain a first texture image (S310). In this case, the first texture image acquiring step (S310) includes extracting texture information of the image (S311) and obtaining a first texture image by bidirectional texture filtering the image by using the extracted texture information (S313). can do. However, when the image is a filtered texture image, the step of extracting texture information of the image (S311) is not required as a component of the multi-resolution image texture filtering method according to an embodiment of the present invention.

영상의 텍스쳐 정보를 추출하는 단계(S311) 및 추출된 텍스쳐 정보를 이용하여 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계(S313)에 대하여는 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법에서 도 1 내지 도 2를 참조하여 영상의 텍스쳐 정보 추출 단계(S110) 및 양방향 텍스쳐 필터링 단계(S120)에 대하여 설명한 바와 유사한 방식으로 용이하게 이해될 수 있으므로 이하 설명은 생략한다.For extracting texture information of the image (S311) and obtaining a first texture image by bidirectional texture filtering the image using the extracted texture information (S313), the bidirectional texture filtering technique according to an embodiment of the present invention. In the image texture filtering method using FIG. 1, the texture information extraction step (S110) and the bidirectional texture filtering step (S120) of the image may be easily understood in a similar manner as described with reference to FIGS. 1 to 2. .

다음으로 제1 텍스쳐 영상을 미리 정하여진 배수로 다운샘플링하여 제2 텍스쳐 영상을 획득한다(S320). 다운샘플링(Down Sampling)은 영상의 해상도가 지정한 수치보다 크면 지정한 수치로 해상도를 감소시키는 것으로, 영상 크기 감소를 위해 화소가 삭제된다. 다운샘플링 방법으로는 최단입점 리샘플링(Nearest Neighbor Re-Sampling) 기법, 쌍선형 리샘플링(Bilinear Re-Sampling) 기법, 쌍입방 리샘플링(Bicubic Re-Sampling) 기법 등 채용 가능한 모든 영상 리샘플링 방법이 사용될 수 있다. 예를 들어, 상기 미리 정하여진 배수는 2가 될 수 있으며, 제1 텍스쳐 영상을 2배수로 다운샘플링 하는 경우 제1 텍스쳐 영상의 수평 방향 및 수직 방향의 화소 수가 1/2로 줄어든다.Next, the first texture image is downsampled by a predetermined multiple to obtain a second texture image (S320). Down sampling is to reduce the resolution to a specified value when the resolution of the image is larger than the specified value, and pixels are deleted to reduce the size of the image. As the downsampling method, any image resampling method that can be employed may be used, such as a nearest neighbor resampling technique, a bilinear resampling technique, and a bicubic resampling technique. For example, the predetermined multiple may be 2. When downsampling the first texture image by twice, the number of pixels in the horizontal and vertical directions of the first texture image is reduced to 1/2.

사용자의 선택에 의하여(S330) 양방향 텍스쳐 필터링 단계(S313) 및 다운샘플링을 통한 제2 텍스쳐 영상 획득 단계(S320)는 1회 이상 수행될 수 있다. 구체적 으로, 이전의 다운샘플링 단계(S320)의 결과인 제2 텍스쳐 영상(필터링된 텍스쳐 정보)이 다음 번의 양방향 텍스쳐 필터링 단계(S313)의 입력으로 이용된다. 예를 들어 다운샘플링 과정은 3 ~ 5회 반복될 수 있다.By the user's selection (S330), the bidirectional texture filtering step S313 and the second texture image obtaining step S320 through downsampling may be performed one or more times. In detail, the second texture image (filtered texture information) that is the result of the previous downsampling step S320 is used as an input of the next bidirectional texture filtering step S313. For example, the downsampling process may be repeated three to five times.

다만, 반복되는 다운샘플링 과정에서 영상의 크기는 미리 정하여진 배수만큼 계속 축소되지만, 반복되는 양방향 텍스쳐 필터링에서 고려되는 주변 화소의 미리 정하여진 범위는 불변한다. 영상이 다운샘플링되더라도 영상보다 넒은 범위의 주변 화소를 이용하여 필터링된 텍스쳐를 생성하므로 다운샘플링시 영상 정보의 손실이 줄게 된다.However, in the repeated downsampling process, the size of the image continues to be reduced by a predetermined multiple, but the predetermined range of the surrounding pixels considered in the repeated bidirectional texture filtering is not changed. Even if the image is downsampled, the filtered texture is generated using the surrounding pixels in a shorter range than the image, so that the loss of image information is reduced during downsampling.

다음으로 제2 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성한다(S351, S350). 화소의 지역적 평탄도(Local Flatness)는 주변 화소들과의 유사도의 평균으로서, 아래의 수학식 7과 같이 산출되는 값이다. 아래의 수학식 7에 따라 지역적 평탄도는 0 ~ 1의 값을 가지고, 중심 화소 주위에 유사한 주변 화소가 많으면 1에 가깝고, 그렇지 않으면 0에 가까운 값을 가진다.Next, local flatness arrays are generated from the second texture image (S351 and S350). Local flatness of a pixel is an average of similarities with neighboring pixels, and is a value calculated as in Equation 7 below. According to Equation 7 below, the local flatness has a value of 0 to 1, and if there are many similar neighboring pixels around the center pixel, the local flatness is close to 1, otherwise the value is close to zero.

Figure 112008089613559-pat00008
Figure 112008089613559-pat00008

여기서 s는 중심 화소, p는 s로부터 미리 정하여진 범위 내의 주변 화소들의 집합인 N(s)에 속하는 주변 화소, H는 화소의 영상 히스토그램, ST는 화소의 구조 텐서, F는 화소의 지역적 평탄도, σs, σh, σst는 양방향 텍스쳐 필터링에서 고려되는 주변 화소의 범위를 결정하는 사용자 파라미터이다. 특히 화소의 영상 히스토그램간의 거리는 쿨백-라이블러 발산(Kullback-Leibler Divergence)을 이용하여 계산될 수 있고, 화소의 구조 텐선간의 거리는 유클리드 거리(Euclidean Distance)일 수 있다. 따라서 WD(p), WH(p), WST(p)는 중심 화소의 특정 주변 화소와의 거리, 영상 히스토그램 및 구조 텐서의 유사도를 의미한다.Where s is a center pixel, p is a peripheral pixel belonging to N (s) which is a set of peripheral pixels within a predetermined range from s, H is an image histogram of the pixel, ST is a structure tensor of the pixel, and F is a local flatness of the pixel. , σ s , σ h , and σ st are user parameters that determine the range of neighboring pixels considered in bidirectional texture filtering. In particular, the distance between the image histograms of the pixels may be calculated using Kullback-Leibler Divergence, and the distance between the structural lines of the pixels may be the Euclidean distance. Accordingly, WD (p), WH (p), and WST (p) refer to the similarity of the distance, the image histogram, and the structure tensor of the center pixel with specific peripheral pixels.

사용자의 선택에 의하여(S340), 제2 텍스쳐 영상을 양방향 필터링하여 제4 텍스쳐 영상을 획득한 후(S353), 제4 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성할 수 있다(S355). 즉, 다운샘플링된 텍스쳐 영상에 대하여 양방향 텍스쳐 필 터링을 추가 수행한 결과 영상으로부터 지역적 평탄도 배열을 생성할 수 있다.In operation S340, the second texture image may be bidirectionally filtered to obtain a fourth texture image (S353), and then a local flatness array may be generated from the fourth texture image (S355). That is, as a result of additionally performing bidirectional texture filtering on the downsampled texture image, a local flatness array may be generated from the image.

다음으로 제2 텍스쳐 영상을 미리 정하여진 배수로 업샘플링하고 지역적 평탄도 배열을 이용하여 제3 텍스쳐 영상을 획득한다(S360). 업샘플링(Up Sampling)은 영상의 해상도가 지정한 수치보다 작으면 지정한 수치로 해상도를 증가시키는 것으로, 영상 크기 증가를 위해 화소가 추가된다. 업샘플링 방법으로는 최단입점 리샘플링(Nearest Neighbor Re-Sampling) 기법, 쌍선형 리샘플링(Bilinear Re-Sampling) 기법, 쌍입방 리샘플링(Bicubic Re-Sampling) 기법 등 채용 가능한 모든 영상 리샘플링 방법이 사용될 수 있다. 예를 들어, 상기 미리 정하여진 배수는 2가 될 수 있으며, 제2 텍스쳐 영상을 2배수로 다운샘플링 하는 경우 제2 텍스쳐 영상의 수평 방향 및 수직 방향의 화소 수가 2배로 늘어난다. 다운샘플링에서의 미리 정하여진 배수와 업샘플링에서의 미리 정하여진 배수를 동일하게 함으로써 다운샘플링 과정에서 생성되는 각 단계의 텍스쳐 영상과 업샘플링 과정에서 생성되는 각 단계의 텍스쳐 영상의 해상도를 동일하게 하고, 따라서 영상 합병을 수행할 수 있다.Next, the second texture image is upsampled by a predetermined multiple, and a third texture image is obtained using a local flatness array (S360). Up Sampling increases the resolution to a specified value when the resolution of the image is smaller than the specified value, and pixels are added to increase the image size. As the upsampling method, any image resampling method that can be employed may be used, such as a nearest neighbor resampling technique, a bilinear resampling technique, and a bicubic resampling technique. For example, the predetermined multiple may be 2, and when downsampling the second texture image by twice, the number of pixels in the horizontal and vertical directions of the second texture image is doubled. By equalizing the predetermined multiples in downsampling and the predetermined multiples in upsampling, the resolutions of the texture image of each step generated in the downsampling process and the texture image of each step generated in the upsampling process are the same. Therefore, image merging can be performed.

제2 텍스쳐 영상 및 상기 지역적 평탄도 배열을 미리 정하여진 배수로 확대한 후(S361), 확대된 지역적 평탄도 배열을 이용하여 제1 텍스쳐 영상 및 확대된 제2 텍스쳐 영상을 병합하여 제1 텍스쳐 영상과 동일한 크기의 제3 텍스쳐 영상을 획득할 수 있다(S363). 즉, 현재 해상도의 텍스쳐 영상 및 지역적 평탄도 배열을 한 단계 큰 해상도의 텍스쳐 영상 및 지역적 평탄도 배열과 병합하게 되는데, 이를 위해 현재 해상도의 텍스쳐 영상 및 지역적 평탄도 배열을 먼저 미리 정하여진 배 수로 확대시켜 한 단계 큰 해상도에 맞추는 것이다.After expanding the second texture image and the local flatness array in a predetermined multiple (S361), the first texture image and the enlarged second texture image are merged using the enlarged local flatness array and the first texture image. A third texture image having the same size may be obtained (S363). In other words, the texture image and the local flatness array of the current resolution are merged with the texture image and the local flatness array of the next higher resolution. To match the resolution to the next level.

특히 제2 텍스쳐 영상 및 상기 지역적 평탄도 배열을 미리 정하여진 배수로 확대(S361)함에 있어서 겹삼차 보간법(Bicubic Interpolation)을 이용할 수 있고, 제1 텍스쳐 영상 및 확대된 제2 텍스쳐 영상을 병합(S363)함에 있어서는 선형 보간법(Linear Interpolation)이 이용될 수 있다.In particular, in expanding the second texture image and the local flatness arrangement in a predetermined multiple (S361), a fold cubic interpolation method can be used, and the first texture image and the enlarged second texture image are merged (S363). In this case, linear interpolation may be used.

구체적으로 제3 텍스쳐 영상은 아래의 수학식 8과 같이 산출될 수 있다.In detail, the third texture image may be calculated as in Equation 8 below.

Figure 112008089613559-pat00009
Figure 112008089613559-pat00009

여기서 s는 화소, Fi-1 *는 확대된 상기 지역적 평탄도 배열, Ui-1 *는 확대된 상기 제2 텍스쳐 영상, Di는 상기 제1 텍스쳐 영상, Ui는 상기 제3 텍스쳐 영상이다.Where s is a pixel, F i-1 * is the enlarged local flatness array, U i-1 * is the enlarged second texture image, D i is the first texture image, and U i is the third texture image to be.

획득된 제3 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제5 텍스쳐 영상을 획득할 수 있다(S370). 즉, 제3 텍스쳐 영상 또는 제3 텍스쳐 영상을 양방향 텍스쳐 필터링한 영상을 최종 결과 영상으로 할 수 있다.In operation S370, a fifth texture image may be obtained by performing bidirectional texture filtering on the acquired third texture image. That is, an image obtained by bidirectional texture filtering the third texture image or the third texture image may be used as the final result image.

도 5는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 과정을 설명하기 위한 예시도이다.5 is an exemplary diagram for describing a multi-resolution image texture filtering process according to an embodiment of the present invention.

입력 영상(a)에 대하여 양방향 텍스쳐 샘플링한 결과가 텍스쳐 영상(b)이다. 입력 영상(a)이 원본 영상인 경우, 입력 영상(a)으로부터 초기 텍스쳐 정보를 추출하고, 추출된 초기 텍스쳐 정보를 이용하여 양방향 텍스쳐 샘플링이 수행된다. 입 력 영상(a)이 텍스쳐 영상인 경우, 텍스쳐 영상에 수반되는 텍스쳐 정보를 이용하여 양방향 텍스쳐 샘플링이 수행된다.The result of bidirectional texture sampling on the input image a is the texture image b. When the input image a is the original image, initial texture information is extracted from the input image a, and bidirectional texture sampling is performed using the extracted initial texture information. When the input image a is a texture image, bidirectional texture sampling is performed using texture information accompanying the texture image.

텍스쳐 영상(b)를 다운샘플링한 결과가 텍스쳐 영상(c)이다. 양방향 텍스쳐 샘플링 및 다운샘플링은 1회 이상 반복될 수 있고, 그 결과가 텍스쳐 영상(d, e, f)이다.The result of downsampling the texture image (b) is the texture image (c). Bidirectional texture sampling and downsampling may be repeated one or more times, with the result being a texture image (d, e, f).

다운샘플링 과정이 끝나면, 업샘플링 과정이 시작된다. 다운샘플링의 결과 텍스쳐 영상(f)을 업샘플링하고 이를 다운샘플링시 생성된 동일 해상도의 텍스쳐 영상(d)과 병합하여 업샘플링된 해상도의 결과 텍스쳐 영상(j)을 생성하는데, 이때 병합을 조절하는데 있어서 텍스쳐 영상(f)에 대한 지역적 평탄도 배열(i)가 이용된다. 다운샘플링 과정과 마찬가지로 업샘플링 과정도 1회 이상 반복될 수 있고, 그 결과가 텍스쳐 영상(l)이며, 지역적 평탄도 배열(k, m)이 병합을 조절하는데 이용된다.When the downsampling process ends, the upsampling process begins. Upsampling the resultant texture image (f) of downsampling and merging it with the texture image (d) of the same resolution generated during downsampling to generate the resultant texture image (j) of the upsampled resolution. In this case, the local flatness arrangement i for the texture image f is used. Like the downsampling process, the upsampling process can be repeated one or more times, resulting in a texture image (l), and the local flatness arrays (k, m) used to control the merging.

도 6은 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 장치의 구성을 나타내는 블록도이다.6 is a block diagram illustrating a configuration of an apparatus for filtering multi-resolution image textures according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 장치는 텍스쳐 정보 추출부(210), 텍스쳐 필터링부(220), 샘플링부(240), 지역적 평탄도 배열 생성부(250) 및 영상 병합부(260)를 포함한다.Referring to FIG. 6, the multi-resolution image texture filtering apparatus according to an embodiment of the present invention may include a texture information extractor 210, a texture filter 220, a sampling unit 240, and a local flatness array generator 250. ) And an image merger 260.

상기 도 6에 도시된 텍스쳐 정보 추출부(210), 텍스쳐 필터링부(220), 입력 영상(291), 텍스쳐 정보(292) 및 필터링된 텍스쳐 영상(293)은 상기 도 3에 도시한 동일한 참조부호를 사용하며, 상기 도 3에 개시된 바와 그 기능 및 작용이 동일하 다. 따라서 용이한 이해와 중복된 내용의 혼동을 회피하기 위해 동일한 구성요소에 대한 설명은 생략하기로 한다. 다만, 입력 영상이 이미 필터링된 텍스쳐 영상이 될 수 있고, 이 경우 텍스쳐 정보 추출부(210)는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 장치의 구성요소로서 요구되지 아니한다.The texture information extractor 210, the texture filter 220, the input image 291, the texture information 292 and the filtered texture image 293 illustrated in FIG. 6 are the same reference numerals as illustrated in FIG. 3. And the function and action is the same as described in Figure 3 above. Therefore, in order to avoid confusion of easy understanding and overlapping content, description of the same elements will be omitted. However, the input image may be a filtered texture image. In this case, the texture information extractor 210 is not required as a component of the multi-resolution image texture filtering apparatus according to the embodiment of the present invention.

샘플링부(240)는, 텍스쳐 필터링부(220)로부터 필터링된 텍스쳐 영상(293)을 입력 받아, 필터링된 텍스쳐 영상(293)을 다운샘플링 또는 업샘플링한다. 샘플링부(240)는, 추가적으로 다운샘플링 과정을 거칠 경우에는 텍스쳐 필터링부(220)로 다운샘플링된 텍스쳐 영상(295)을 출력하고, 다운샘플링 과정이 종료되어 업샘플링 과정을 수행하는 경우에는 지역적 평탄도 배열 생성부(250) 및 영상 병합부(260)로 다운샘플링 또는 업샘플링된 텍스쳐 영상(295)을 출력한다.The sampling unit 240 receives the filtered texture image 293 from the texture filtering unit 220 and downsamples or upsamples the filtered texture image 293. The sampling unit 240 additionally outputs the downsampled texture image 295 to the texture filtering unit 220 when the downsampling process is performed. When the downsampling process is completed, the sampling unit 240 performs a local flatness. The downsampled or upsampled texture image 295 is output to the array generator 250 and the image merger 260.

지역적 평탄도 배열 생성부(250)는, 샘플링부(240)로부터 샘플링된 텍스쳐 영상(295)을 입력 받아, 샘플링된 텍스쳐 영상(295)으로부터 지역적 평탄도 배열(296)을 생성하고, 생성된 지역적 평탄도 배열(296)을 출력한다.The local flatness array generator 250 receives the sampled texture image 295 from the sampling unit 240, generates a local flatness array 296 from the sampled texture image 295, and generates the generated local flatness array 296. Output a flatness array 296.

영상 병합부(260)는, 텍스쳐 필터링부(220)로부터 필터링된 텍스쳐 영상(293)을 입력 받고, 샘플링부(240)로부터 샘플링된 텍스쳐 영상(295)을 입력 받으며, 지역적 평탄도 배열 생성부(250)로부터 지역적 평탄도 배열(296)을 입력 받아, 지역적 평탄도 배열(296)을 이용하여 필터링된 텍스쳐 영상(293) 및 샘플링된 텍스쳐 영상(295)을 병합하여 병합 영상(297)을 출력한다.The image merger 260 receives the filtered texture image 293 from the texture filter 220, receives the sampled texture image 295 from the sampling unit 240, and generates a local flatness array generator. The local flatness array 296 is input from the 250, and the merged texture 297 is output by merging the filtered texture image 293 and the sampled texture image 295 using the local flatness array 296. .

지역적 평탄도 배열 생성부(250) 및 영상 병합부(260)는 하나의 장치로서 구현될 수 있다.The local flatness arrangement generator 250 and the image merger 260 may be implemented as one device.

병합 영상(297)은 다음 번 업샘플링 과정의 입력으로 이용되기 위해 샘플링부(240)로 출력될 수 있다. 도 6에 도시되지 않았지만 도 3을 참조하여 설명된 바와 유사하게, 구조 정보 획득부(미도시)는 상기 병합 영상(297)을 입력 받아, 구조 정보(미도시)를 생성할 수 있다.The merged image 297 may be output to the sampling unit 240 to be used as an input of the next upsampling process. Although not illustrated in FIG. 6, but similar to that described with reference to FIG. 3, the structure information acquisition unit (not shown) may receive the merge image 297 and generate structure information (not shown).

샘플링부(240), 지역적 평탄도 배열 생성부(250) 및 영상 병합부(260)에 대하여는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 방법에서 도 4 및 도 5를 참조하여 제1 텍스쳐 영상을 다운샘플링하여 제2 텍스쳐 영상을 획득하는 단계(S320), 제2 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 단계(S350) 및 지역적 평탄도 배열을 이용하여 제1 텍스쳐 영상 및 확대된 제2 텍스쳐 영상을 병합하는 단계(S360)에 대하여 설명한 바와 유사한 방식으로 용이하게 이해될 수 있으므로 이하 설명은 생략한다.The sampling unit 240, the local flatness array generator 250, and the image merger 260 are described with reference to FIGS. 4 and 5 in the multi-resolution image texture filtering method according to an embodiment of the present invention. Acquiring a second texture image by downsampling the image (S320); generating a local flatness array from the second texture image (S350); and using the local flatness array, the first texture image and the enlarged second image. Since it may be easily understood in a manner similar to that described with respect to the merging of the texture images (S360), the following description is omitted.

이상 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art will understand that various modifications and changes can be made without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

도 1은 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 방법의 수행 결과를 설명하기 위한 예시도이다.FIG. 2 is an exemplary diagram for describing an execution result of an image texture filtering method using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 양방향 텍스쳐 필터링 기법을 이용한 영상 텍스쳐 필터링 장치의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of an image texture filtering apparatus using a bidirectional texture filtering technique according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a multi-resolution image texture filtering method according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 과정을 설명하기 위한 예시도이다.5 is an exemplary diagram for describing a multi-resolution image texture filtering process according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 다중 해상도 영상 텍스쳐 필터링 장치의 구성을 나타내는 블록도이다.6 is a block diagram illustrating a configuration of an apparatus for filtering multi-resolution image textures according to an embodiment of the present invention.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

210 : 텍스쳐 정보 추출부 220 : 텍스쳐 필터링부210: texture information extraction unit 220: texture filtering unit

230 : 구조 정보 획득부 240 : 샘플링부230: structure information acquisition unit 240: sampling unit

250 : 지역적 평탄도 배열 생성부 260 : 영상 병합부250: Local flatness array generator 260: Image merger

Claims (24)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 영상의 화소별 색상 히스토그램 및 화소별 구조 텐서를 이용하여 영상의 텍스쳐 정보를 추출하는 단계;Extracting texture information of an image using a color histogram of pixels and a structure tensor of pixels; 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계;Obtaining a first texture image by bidirectional texture filtering the image by using the extracted texture information; 상기 제1 텍스쳐 영상을 미리 정하여진 배수로 다운샘플링하여 제2 텍스쳐 영상을 획득하는 단계;Obtaining a second texture image by downsampling the first texture image by a predetermined multiple; 상기 제2 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제4 텍스쳐 영상을 획득하는 단계;Bidirectional texture filtering the second texture image to obtain a fourth texture image; 상기 제4 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 단계;Generating a local flatness array from the fourth texture image; 상기 제2 텍스쳐 영상을 상기 미리 정하여진 배수로 업샘플링하고 상기 지역적 평탄도 배열을 이용하여 제3 텍스쳐 영상을 획득하는 단계; 및Upsampling the second texture image by the predetermined multiple and obtaining a third texture image using the local flatness arrangement; And 상기 제4 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제5 텍스쳐 영상을 획득하는 단계를 포함하며,Obtaining a fifth texture image by performing bidirectional texture filtering on the fourth texture image, 상기 지역적 평탄도 배열을 생성하는 단계는,Generating the regional flatness arrangement, 상기 제2 텍스쳐 영상의 특정 중심 화소 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소에 대하여 상기 중심 화소 및 상기 주변 화소간의 거리와, 상기 중심 화소의 영상 히스토그램 및 상기 주변화소의 히스토그램간의 거리와, 상기 중심 화소의 구조 텐서 및 상기 주변 화소의 구조 텐서간의 거리에 기초하여 상기 지역적 평탄도 배열의 화소별 원소를 산출하며, A distance between the center pixel and the peripheral pixel with respect to a specific center pixel of the second texture image and a peripheral pixel within a predetermined range from the specific pixel, a distance between an image histogram of the center pixel and a histogram of the peripheral pixel, Calculating elements of each pixel of the regional flatness array based on a distance between a structural tensor of a central pixel and a structural tensor of the peripheral pixel; 상기 화소의 영상 히스토그램간의 거리는 쿨백-라이블러 발산을 이용하여 계산되는 것을 특징으로 하는 다중 해상도 영상 텍스쳐 필터링 방법.And the distance between the image histograms of the pixels is calculated by using a coolback-ribbler divergence. 삭제delete 삭제delete 삭제delete 삭제delete 제8항에 있어서,The method of claim 8, 상기 제3 텍스쳐 영상을 획득하는 단계는,Acquiring the third texture image may include: 상기 제2 텍스쳐 영상 및 상기 지역적 평탄도 배열을 상기 미리 정하여진 배수로 확대하는 단계; 및Enlarging the second texture image and the local flatness arrangement to the predetermined multiple; And 확대된 상기 지역적 평탄도 배열을 이용하여 상기 제1 텍스쳐 영상 및 확대된 상기 제2 텍스쳐 영상을 병합하여 상기 제1 텍스쳐 영상과 동일한 크기의 상기 제3 텍스쳐 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 다중 해상도 영상 텍스쳐 필터링 방법.Acquiring the third texture image having the same size as the first texture image by merging the first texture image and the enlarged second texture image using the enlarged local flatness arrangement. Multi-resolution image texture filtering method. 제13항에 있어서,The method of claim 13, 상기 제3 텍스쳐 영상을 획득하는 단계는, 하기의 수학식,The acquiring of the third texture image may include the following equation,
Figure 112010032739616-pat00010
Figure 112010032739616-pat00010
(여기서 s는 화소, Fi-1 *는 확대된 상기 지역적 평탄도 배열, Ui-1 *는 확대된 상기 제2 텍스쳐 영상, Di는 상기 제1 텍스쳐 영상, Ui는 상기 제3 텍스쳐 영상임)(Where s is a pixel, F i-1 * is the enlarged local flatness array, U i-1 * is the enlarged second texture image, D i is the first texture image, and U i is the third texture) Video) 에 따라 상기 제3 텍스쳐 영상을 획득하는 것을 특징으로 하는 다중 해상도 영상 텍스쳐 필터링 방법.The third resolution image texture filtering method according to claim 1, wherein the third texture image is obtained.
삭제delete 삭제delete 삭제delete 양방향 텍스쳐 필터링 기법을 이용한 다중 해상도 영상 텍스쳐 필터링 방법을 수행하는 디지털 처리 장치에 의해 실행될 수 있는 명령어의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체는,A program of instructions that can be executed by a digital processing apparatus that performs a multi-resolution image texture filtering method using a bidirectional texture filtering technique is tangibly implemented, and a recording medium recording a program that can be read by the digital processing apparatus, 영상의 화소별 색상 히스토그램 및 화소별 구조 텐서를 이용하여 영상의 텍스쳐 정보를 추출하는 단계;Extracting texture information of an image using a color histogram of pixels and a structure tensor of pixels; 추출된 상기 텍스쳐 정보를 이용하여 상기 영상을 양방향 텍스쳐 필터링하여 제1 텍스쳐 영상을 획득하는 단계;Obtaining a first texture image by bidirectional texture filtering the image by using the extracted texture information; 상기 제1 텍스쳐 영상을 미리 정하여진 배수로 다운샘플링하여 제2 텍스쳐 영상을 획득하는 단계;Obtaining a second texture image by downsampling the first texture image by a predetermined multiple; 상기 제2 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제4 텍스쳐 영상을 획득하는 단계;Bidirectional texture filtering the second texture image to obtain a fourth texture image; 상기 제4 텍스쳐 영상으로부터 지역적 평탄도 배열을 생성하는 단계;Generating a local flatness array from the fourth texture image; 상기 제2 텍스쳐 영상을 상기 미리 정하여진 배수로 업샘플링하고 상기 지역적 평탄도 배열을 이용하여 제3 텍스쳐 영상을 획득하는 단계; 및Upsampling the second texture image by the predetermined multiple and obtaining a third texture image using the local flatness arrangement; And 상기 제4 텍스쳐 영상을 양방향 텍스쳐 필터링하여 제5 텍스쳐 영상을 획득하는 단계를 수행하는데,Obtaining a fifth texture image by performing bidirectional texture filtering on the fourth texture image; 상기 지역적 평탄도 배열을 생성하는 단계는,Generating the regional flatness arrangement, 상기 제2 텍스쳐 영상의 특정 중심 화소 및 상기 특정 화소로부터 소정의 범위 내의 주변 화소에 대하여 상기 중심 화소 및 상기 주변 화소간의 거리와, 상기 중심 화소의 영상 히스토그램 및 상기 주변화소의 히스토그램간의 거리와, 상기 중심 화소의 구조 텐서 및 상기 주변 화소의 구조 텐서간의 거리에 기초하여 상기 지역적 평탄도 배열의 화소별 원소를 산출하며, A distance between the center pixel and the peripheral pixel with respect to a specific center pixel of the second texture image and a peripheral pixel within a predetermined range from the specific pixel, a distance between an image histogram of the center pixel and a histogram of the peripheral pixel, Calculating elements of each pixel of the regional flatness array based on a distance between a structural tensor of a central pixel and a structural tensor of the peripheral pixel; 상기 화소의 영상 히스토그램간의 거리는 쿨백-라이블러 발산을 이용하여 계산되는 것을 특징으로 하는 프로그램을 기록한 기록매체.And a distance between the image histograms of the pixels is calculated by using a coolback-ribbler divergence. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020080135222A 2008-12-29 2008-12-29 Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same KR101028628B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080135222A KR101028628B1 (en) 2008-12-29 2008-12-29 Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080135222A KR101028628B1 (en) 2008-12-29 2008-12-29 Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same

Publications (2)

Publication Number Publication Date
KR20100077307A KR20100077307A (en) 2010-07-08
KR101028628B1 true KR101028628B1 (en) 2011-04-11

Family

ID=42638680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080135222A KR101028628B1 (en) 2008-12-29 2008-12-29 Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same

Country Status (1)

Country Link
KR (1) KR101028628B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105761202A (en) * 2016-02-03 2016-07-13 武汉大学 Color migration method of color images

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101635309B1 (en) * 2015-01-14 2016-07-01 포항공과대학교 산학협력단 Apparatus and method of textrue filtering using patch shift
KR101713189B1 (en) * 2015-04-20 2017-03-08 전남대학교산학협력단 Tensor Divergence Feature Extraction System based on HoG and HOF for video obejct action classification
KR20180056313A (en) 2016-11-18 2018-05-28 삼성전자주식회사 Apparatus and method for processing texture
CN107133924A (en) * 2017-03-31 2017-09-05 长安大学 A kind of structure-preserving characteristic image filtering method of utilization color second order change information
CN108510569B (en) * 2018-01-26 2020-11-03 北京大学 Multichannel-based artistic word generation method and system
CN110097615B (en) * 2018-12-06 2021-01-19 北京大学 Stylized and de-stylized artistic word editing method and system
CN109816781B (en) * 2019-02-01 2020-07-24 武汉大学 Multi-view solid geometry method based on image detail and structure enhancement
CN111784675A (en) * 2020-07-01 2020-10-16 云南易见纹语科技有限公司 Method and device for processing article texture information, storage medium and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212342A (en) * 1995-02-02 1996-08-20 Victor Co Of Japan Ltd Method for extracting texture area of image
KR960032240A (en) * 1995-02-02 1996-09-17 슈즈이 다께오 A method for extracting a texture region from an original image
JP2004158042A (en) 1999-02-05 2004-06-03 Samsung Electronics Co Ltd Method and device for describing texture feature of image, and its medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08212342A (en) * 1995-02-02 1996-08-20 Victor Co Of Japan Ltd Method for extracting texture area of image
KR960032240A (en) * 1995-02-02 1996-09-17 슈즈이 다께오 A method for extracting a texture region from an original image
JP2004158042A (en) 1999-02-05 2004-06-03 Samsung Electronics Co Ltd Method and device for describing texture feature of image, and its medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이현준, 이승용, "영상 디스타일화", 한국정보과학회, 2007 한국컴퓨터종합학술대회 논문집 제34권 제1호(B), pp. 199-202, 2007.6.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105761202A (en) * 2016-02-03 2016-07-13 武汉大学 Color migration method of color images
CN105761202B (en) * 2016-02-03 2018-10-26 武汉大学 A kind of color image color moving method

Also Published As

Publication number Publication date
KR20100077307A (en) 2010-07-08

Similar Documents

Publication Publication Date Title
KR101028628B1 (en) Image texture filtering method, storage medium of storing program for executing the same and apparatus performing the same
Sajjadi et al. Enhancenet: Single image super-resolution through automated texture synthesis
Wu et al. Light field reconstruction using deep convolutional network on EPI
Yan et al. Single image superresolution based on gradient profile sharpness
CN108122197B (en) Image super-resolution reconstruction method based on deep learning
CN110827200B (en) Image super-resolution reconstruction method, image super-resolution reconstruction device and mobile terminal
JP5555706B2 (en) High resolution video acquisition apparatus and method
CN109462747B (en) DIBR system cavity filling method based on generation countermeasure network
CN108694705A (en) A kind of method multiple image registration and merge denoising
CN107689050B (en) Depth image up-sampling method based on color image edge guide
Peng et al. Efficient image resolution enhancement using edge-directed unsharp masking sharpening for real-time ASIC applications
CN114022809A (en) Video motion amplification method based on improved self-coding network
CN114449181B (en) Image and video processing method and system, data processing device and medium
Jia et al. Super-resolution with deep adaptive image resampling
Wu et al. High-resolution images based on directional fusion of gradient
CN108510438A (en) A kind of image, video amplification method and system
Graba et al. Non-additive imprecise image super-resolution in a semi-blind context
CN113674154B (en) Single image super-resolution reconstruction method and system based on generation countermeasure network
Liu et al. A convolutional neural network for image super-resolution using internal dataset
Liu et al. Compressed face hallucination
JP2775122B2 (en) Automatic contour extraction vectorization processing method of illustration data and processing device used for the method
Yue et al. Sift-based image super-resolution
Maalouf et al. Image super-resolution, a state-of-the-art review and evaluation
Chen et al. Image reconstruction based on combination of wavelet decomposition, inpainting and texture synthesis
Liu et al. Learning Selfie-Friendly Abstraction from Artistic Style Images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee