KR100968244B1 - System for recognizing a specific subject in image and Method thereof - Google Patents
System for recognizing a specific subject in image and Method thereof Download PDFInfo
- Publication number
- KR100968244B1 KR100968244B1 KR1020080008756A KR20080008756A KR100968244B1 KR 100968244 B1 KR100968244 B1 KR 100968244B1 KR 1020080008756 A KR1020080008756 A KR 1020080008756A KR 20080008756 A KR20080008756 A KR 20080008756A KR 100968244 B1 KR100968244 B1 KR 100968244B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unit
- subject
- recognized
- images
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 239000003086 colorant Substances 0.000 claims abstract description 9
- 238000009795 derivation Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 7
- 239000000203 mixture Substances 0.000 description 13
- 238000000605 extraction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003709 image segmentation Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 영상에서 특정 피사체를 인식하는 시스템 및 방법에 관한 것으로, 보다 상세하게는 여러 피사체가 표현된 영상에서 특정 피사체만을 인식할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing a specific subject in an image, and more particularly, to a system and a method for recognizing only a specific subject in an image in which several subjects are expressed.
본 명세서에서 개시하는 특정 피사체를 인식하는 시스템은 원 영상에 표현된 인식 대상 피사체를 다른 피사체로부터 분리하기 위해 상기 원 영상을 영상 정보의 특징이 동질인 영상으로 분할하는 원 영상 분할부; 상기 분할된 각 영상 중에서 상기 인식 대상 피사체가 차지하는 영역을 추출하기 위한 후보 영상을 선별하는 후보 영상 선별부; 및 상기 선별된 후보 영상으로부터 상기 인식 대상 피사체가 차지하는 영역을 추출하고, 상기 추출된 영역에 상기 인식 대상 피사체의 상기 원 영상에서의 색상을 결합하여 상기 인식 대상 피사체의 인식 영상을 도출하는 인식 영상 도출부를 포함하여 본 발명의 과제를 해결한다.The system for recognizing a specific subject disclosed herein includes: an original image divider for dividing the original image into an image having the same characteristics as the image information in order to separate the recognition target subject represented in the original image from another subject; A candidate image selecting unit which selects a candidate image for extracting an area occupied by the subject to be recognized from each of the divided images; And extracting a region occupied by the subject to be recognized from the selected candidate image and deriving a recognized image of the subject to be recognized by combining colors of the original image of the subject to be recognized with the extracted region. The problem of the present invention is solved including a part.
Description
본 발명은 영상에서 특정 피사체를 인식하는 시스템 및 방법에 관한 것으로, 보다 상세하게는 여러 피사체가 표현된 영상에서 특정 피사체만을 인식할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing a specific subject in an image, and more particularly, to a system and a method for recognizing only a specific subject in an image in which several subjects are expressed.
영상에서 주요 객체(Object of Interesting)를 추출하는 것은 영상처리 분야의 주요 관심사 중 하나이다. 주요 객체란 영상이 내포하고 있는 색상, 질감, 위치 등의 특징(Features)들 중에서 동질적인 영역(Homogeneous Region)을 기준으로 집합들로 나누어서 가장 중심이 될 수 있는 집합이라고 할 수 있다. 추출된 주요 객체는 내용기반 영상검색(Image Retrieval System based Contents), 영상압축, 의료영상해석(Visual medical analysis), 군사부분(military equipment development) 등 다양한 응용분야에 이용된다.Extracting the main object (Object of Interesting) from the image is one of the major concerns in the image processing field. The main object is a set that can be the most central by dividing into sets based on the homogeneous region among the features such as color, texture, and position of the image. The extracted main objects are used in various applications such as image retrieval system based contents, image compression, visual medical analysis, military equipment development.
일반적으로 객체를 추출하기 위해서는 영상분할(Image Segmentation) 작업이 선행 되어야 한다. 영상분할 방법 중 영역기반 방법(Region based Method)이 있는데, 이는 동일 영역은 색상, 질감 등이 유사하다라는 영상의 특성을 이용하였고, 에지(Edge) 기반 방법이 있는데 객체 사이의 에지에서 화소의 변화가 심하다는 가정을 이용하였다.In general, image segmentation must be performed to extract an object. Among the image segmentation methods, there is a region based method, which uses the characteristics of the image that the same area is similar in color, texture, etc., and there is an edge based method. The hypothesis was used.
한편 영상에서 주요객체를 자동으로 추출하는 방법이 있는데, 이는 영상을 다수 구역의 영역으로 분할하고 객체를 추출하기 위하여 색상, 질감, 형태 등에 따라 병합 과정을 수행하여 객체를 추출하는 방법이다.On the other hand, there is a method of automatically extracting the main object from the image, which is a method of extracting the object by merging the image according to the color, texture, shape, etc. in order to divide the image into a plurality of areas and to extract the object.
영상에서 주요 객체를 추출하는 것은 난이한 작업으로 모든 영상에 적용 가능한 알고리즘을 구현한다는 것은 많은 어려움이 따른다. 왜냐하면 영상에 포함된 객체는 유사한 색상으로 구성되는 경우도 있지만 다양한 색상, 형태와 질감으로 구성되는 경우도 많으며 다수의 객체가 존재하거나 특별히 나타낼 수 없는 영상도 있기 때문이다. 또한 가장 어려운 점으로 객체의 정의가 사람마다 다름을 들 수 있다.Extracting the main object from the image is a difficult task, and it is difficult to implement an algorithm applicable to all images. This is because an object included in an image may be composed of similar colors, but may be composed of various colors, shapes, and textures, and there may be a plurality of objects or images that cannot be represented in particular. The most difficult part is that the definition of an object varies from person to person.
사람마다 다른 인지적 요소로 인하여 발생하는 객체에 정의를 보완하기 위하여 인위적인 요소가 추가된 반자동(Semi-Automatic) 객체추출 방법이 있는데, 이에 의하면 주요 객체를 추출하는 과정에서 사용자가 임의로 의미있는 주요객체를 지정해주는 작업이 수행된다. 객체 추출 정확도는 높으나 자동을 요구하는 내용기반 영상 검색이나 빠른 결과를 요구하는 작업에서는 비효율적인 요소로 작용한다. 결국 대용량의 영상 데이터베이스에서 객체를 추출하기 위해서는 반자동 객체추출 방법보다는 자동화된 객체 추출 방법이 필요하다.There is a semi-automatic object extraction method in which artificial elements are added to supplement the definition caused by different cognitive elements for each person. The operation that specifies is performed. Although the accuracy of object extraction is high, it is inefficient for content-based image retrieval that requires automatic or fast result. As a result, in order to extract objects from a large image database, an automated object extraction method is required rather than a semi-automatic object extraction method.
본 발명은 상기한 배경하에 창안된 것으로 본 발명이 해결하고자하는 과제는 영상에서 특정 피사체를 그 피사체의 종류를 불문하고 자동적으로 인식(추출)할 수 있는 시스템 및 방법을 제공하는 것에 있다.SUMMARY OF THE INVENTION The present invention has been made under the above-described background, and an object of the present invention is to provide a system and method for automatically recognizing (extracting) a specific subject regardless of the type of the subject in an image.
상기와 같은 과제를 해결하기 위해 본 명세서에서 개시하는 특정 피사체를 인식하는 방법은In order to solve the above problems, a method of recognizing a specific subject disclosed herein
(a)원 영상에 표현된 인식 대상 피사체를 다른 피사체로부터 분리하기 위해 상기 원 영상을 영상 정보의 특징이 동질인 영상으로 분할하는 단계; (b)상기 분할된 각 영상 중에서 상기 인식 대상 피사체가 차지하는 영역을 추출하기 위한 후보 영상을 선별하는 단계; 및 (c)상기 선별된 후보 영상으로부터 상기 인식 대상 피사체가 차지하는 영역을 추출하고, 상기 추출된 영역에 상기 인식 대상 피사체의 상기 원 영상에서의 색상을 결합하여 상기 인식 대상 피사체의 인식 영상을 도출하는 단계를 포함하여 본 발명의 과제를 해결한다.(a) dividing the original image into an image having the same characteristics as the image information in order to separate the recognition target subject represented in the original image from another subject; (b) selecting a candidate image for extracting an area occupied by the subject to be recognized from each of the divided images; And (c) extracting an area occupied by the subject to be recognized from the selected candidate image and deriving a recognized image of the subject to be recognized by combining the extracted area with the color of the original image of the subject to be recognized. It includes the steps to solve the problem of the present invention.
상기와 같은 과제를 해결하기 위해 본 명세서에서 개시하는 특정 피사체를 인식하는 또 다른 방법은Another method for recognizing a specific subject disclosed herein to solve the above problems is
(a)원 영상에 표현된 인식 대상 피사체를 다른 피사체로부터 분리하기 위해 상기 원 영상을 영상 정보의 특징이 동질인 영상으로 분할하는 단계; (b)상기 분할된 각 영상 중에서 상기 인식 대상 피사체가 차지하는 영역을 추출하기 위한 후보 영상을 선별하는 단계; (c)상기 선별된 후보 영상에서 상기 차지하는 영역의 개수가 다수인지를 판단하는 단계; 및 (d)상기 개수가 다수인 경우, 그 중 하나의 영역 을 추출하고, 상기 추출된 하나의 영역에 상기 인식 대상 피사체의 상기 원 영상에서의 색상을 결합하여 상기 인식 대상 피사체의 인식 영상을 도출하는 단계를 포함하여 본 발명의 과제를 해결한다.(a) dividing the original image into an image having the same characteristics as the image information in order to separate the recognition target subject represented in the original image from another subject; (b) selecting a candidate image for extracting an area occupied by the subject to be recognized from each of the divided images; (c) determining whether the number of regions occupied by the selected candidate image is a large number; And (d) when the number is large, extracts one region from the image, and combines the color of the original image of the subject to be recognized into the extracted region to derive the recognition image of the subject to be recognized. Including the steps to solve the problem of the present invention.
상기와 같은 과제를 해결하기 위해 본 명세서에서 개시하는 특정 피사체를 인식하는 시스템은In order to solve the above problems, a system for recognizing a specific subject disclosed herein
원 영상에 표현된 인식 대상 피사체를 다른 피사체로부터 분리하기 위해 상기 원 영상을 영상 정보의 특징이 동질인 영상으로 분할하는 원 영상 분할부; 상기 분할된 각 영상 중에서 상기 인식 대상 피사체가 차지하는 영역을 추출하기 위한 후보 영상을 선별하는 후보 영상 선별부; 및 상기 선별된 후보 영상으로부터 상기 인식 대상 피사체가 차지하는 영역을 추출하고, 상기 추출된 영역에 상기 인식 대상 피사체의 상기 원 영상에서의 색상을 결합하여 상기 인식 대상 피사체의 인식 영상을 도출하는 인식 영상 도출부를 포함하여 본 발명의 과제를 해결한다.An original image dividing unit for dividing the original image into an image having the same characteristics as the image information in order to separate the recognition target subject represented in the original image from another subject; A candidate image selecting unit which selects a candidate image for extracting an area occupied by the subject to be recognized from each of the divided images; And extracting a region occupied by the subject to be recognized from the selected candidate image and deriving a recognized image of the subject to be recognized by combining colors of the original image of the subject to be recognized with the extracted region. The problem of the present invention is solved including a part.
상기와 같은 과제를 해결하기 위해 본 명세서에서 개시하는 특정 피사체를 인식하는 또 다른 시스템은Another system for recognizing a specific subject disclosed herein to solve the above problems is
원 영상에 표현된 인식 대상 피사체를 다른 피사체로부터 분리하기 위해 상기 원 영상을 영상 정보의 특징이 동질인 영상으로 분할하는 원 영상 분할부; 상기 분할된 각 영상 중에서 상기 인식 대상 피사체가 차지하는 영역을 추출하기 위한 후보 영상을 선별하는 후보 영상 선별부; 상기 선별된 후보 영상에서 상기 차지하는 영역의 개수가 다수인지를 판단하는 영역 개수 판단부; 및 상기 개수가 다수인 경우, 그 중 하나의 영역을 추출하고, 상기 추출된 하나의 영역에 상기 인식 대상 피사체의 상기 원 영상에서의 색상을 결합하여 상기 인식 대상 피사체의 인식 영상을 도출하는 인식 영상 도출부를 포함하여 본 발명의 과제를 해결한다.An original image dividing unit for dividing the original image into an image having the same characteristics as the image information in order to separate the recognition target subject represented in the original image from another subject; A candidate image selecting unit which selects a candidate image for extracting an area occupied by the subject to be recognized from each of the divided images; An area number determination unit that determines whether the number of areas occupied by the selected candidate image is large; And a recognition image for extracting one region from among the plurality of regions and combining the color of the original image of the subject to be recognized with the extracted one region to derive the recognition image of the subject to be recognized. Solving the problem of the present invention including a derivation unit.
본 발명을 이용하면 영상에 제시된 어떠한 피사체에 대해서도 추출을 행할 수 있기 때문에 영상 인식 기능의 범용성을 확보할 수 있다.According to the present invention, since any object presented in the image can be extracted, the versatility of the image recognition function can be ensured.
이하, 본 발명의 기술적 과제의 해결 방안을 명확화하기 위한 발명의 구성을 본 발명의 바람직한 실시예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다.Hereinafter, the configuration of the invention for clarifying the solution of the technical problem of the present invention will be described in detail with reference to the accompanying drawings based on the preferred embodiment of the present invention, the same configuration in the reference numerals to the components of the drawings The elements have been given the same reference numerals even though they are in different drawings, and it is noted that in the description of the drawings, components of other drawings may be cited if necessary.
도 1a는 본 시스템 발명의 바람직한 실시예의 구성을 제시한 도면이고, 도 1b는 본 방법 발명의 바람직한 흐름을 제시한 도면이다.Figure 1a is a diagram showing the configuration of a preferred embodiment of the present invention, Figure 1b is a diagram showing a preferred flow of the present invention.
본 발명에 의한 특정 피사체(특정 객체)를 인식(추출)하기 위해서는 피사체가 촬상된 영상(이하 '원 영상')을 영상 정보(휘도 신호, 색 신호 등)의 특징이 동질(homogeneous)인 각 영상으로 분할하는 것을 전제한다. 이를 소위 'image segmentation'이라 하며, 원 영상에서 관심 영역(region of interest, 주요 객체)을 추출하여 특정 객체와 배경을 분리해내는 것이다.In order to recognize (extract) a specific subject (specific object) according to the present invention, each image having a homogeneous characteristic of the image information (luminance signal, color signal, etc.) of the image of the subject (hereinafter, referred to as the "original image") Suppose you divide by. This is called 'image segmentation', and it extracts a region of interest (main object) from the original image to separate a specific object and a background.
이를 위해, 원 영상 분할부(11)의 단위 영상 도출부(111)는 원 영상에 표현된 인식 대상 피사체(주요 객체)를 다른 피사체(배경)로부터 분리하기 위해 원 영 상으로부터 영상 정보의 특징이 동질인 각 단위 영상을 도출하는데(S111), 도출을 행하는 여러 알고리즘이 있으나(예를 들어 Watershed algorithm, K-means algorithm, EM algorithm 등), 하드웨어와 소프트웨어의 부하(load) 측면을 고려할 때, K-means algorithm을 채용하는 것이 바람직하다. 이 알고리즘에 관한 자세한 사항은 이미 공지되어 있으므로 그 자세한 설명은 생략한다.To this end, the unit image deriving unit 111 of the original
도 2a 내지 도 2d에 원 영상과 그 원 영상이 K-means 알고리즘을 이용하여 분할된 각 단위 영상의 예가 제시되어 있다. 본 예에 의하면 원 영상이 3개의 단위 영상으로 분할됨을 알 수 있는데, 도 2a가 원 영상이며 도 2b 내지 도 2d는 원 영상으로부터 분할된 각 단위 영상으로 각각 제1 구역 영상(도 2b), 제2 구역 영상(도 2c), 제3 구역 영상(도 2d)이다. 3구역으로 분할한 이유는 인간은 3 내지 4개의 주요 색상(major color)으로 영상(객체)을 인식하는 경향이 있으며, 원 영상을 과도하게 분할시에 주요 객체 즉, 인식 대상 객체가 분산되는 결과를 초래할 수 있기 때문이다.2A to 2D show an example of each unit image in which the original image and the original image are divided using the K-means algorithm. According to this example, it can be seen that the original image is divided into three unit images. FIG. 2A is an original image, and FIGS. 2B to 2D are respective unit images divided from the original image, respectively. 2 zone image (FIG. 2C), 3 zone image (FIG. 2D). The reason for the division into three zones is that humans tend to recognize images (objects) with three to four major colors, and when the original image is excessively divided, the main object, that is, the object to be recognized is distributed. Because it can cause.
한편, 원 영상을 각 단위 영상으로 분할함에 있어, 인식 대상 피사체는 원 영상의 어느 한 구역에 집중되는 것이 아니라 여러 구역에 흩어진 경우가 다반사이다. 이 경우 단지 상기한 알고리즘만을 이용하여 원 영상에 대한 분할 절차를 종결시킨다면 단위 영상의 개수가 무한히 많아질 수 있으므로 차후에 인식 대상 피사체에 대한 인식(추출)의 정확성이 결여될 수 있다.On the other hand, in dividing the original image into each unit image, the subject to be recognized is not normally concentrated in one region of the original image but is scattered in several regions. In this case, if the segmentation procedure for the original image is terminated using only the above algorithm, the number of unit images may be infinitely large, and thus the accuracy of recognition (extraction) of the object to be recognized may be lacking.
따라서 본 발명에서는 이러한 인식(추출)의 정확성의 결여를 불식시키고자 상기 도출된 각 단위 영상을 병합시키는 조작을 행한다.Therefore, in the present invention, an operation of merging the derived unit images is performed to eliminate such a lack of accuracy of extraction (extraction).
이를 위해 히스토그램 유사도 판단부(112)는 상기 도출된 각 단위 영상의 영상 정보의 히스토그램 사이의 유사 여부를 판단한다(S112). 단위 영상간 히스토그램의 유사도가 1에 가까울수록 영상 특징이 더욱더 비슷한 것이다.To this end, the histogram similarity determination unit 112 determines whether the histograms of the image information of the derived unit image are similar (S112). The closer the histogram between unit images is to 1, the more similar the image features will be.
단위 영상 결정부(113)는 상기 판단된 유사도가 특정 임계값 이상을 갖는지 판단하여 히스토그램이 상호 유사한 단위 영상을 병합하여 하나의 단위 영상으로 결정하고, 특정 임계치 이하인 경우에는 단위 영상 도출부(111)에서 도출된 단위 영상을 그대로 하나의 단위 영상으로 결정한다(S113).The unit image determiner 113 determines whether the determined similarity has a specific threshold value or more and merges the unit images whose histograms are similar to each other, and determines the unit image as one unit image. The unit image derived from is determined as one unit image as it is (S113).
도 2b 내지 도 2d에 제시된 예시 영상들에는 유사도의 특정 임계값을 0.86으로 하여 이 임계값 이상을 갖는 각 단위 영상을 병합한다. 도 2b의 단위 영상과 도 2d의 단위 영상의 히스토그램 유사도가 0.96을 갖고 나머지 단위 영상간 유사도는 0.86 이하이므로 도 2b의 단위 영상과 도 2d의 단위 영상을 병합하여 하나의 단위 영상으로서 결정한다. 그 병합된 영상의 예가 도 3b에 해당된다. 도 3a는 히스토그램이 다른 단위 영상과 유사하지 아니하므로 그대로 독립적인 단위 영상으로서 결정된 영상으로 도 2c에 해당하는 영상이다.In the example images shown in FIGS. 2B to 2D, the unit image having the threshold value equal to or greater than 0.86 is merged. Since the histogram similarity between the unit image of FIG. 2B and the unit image of FIG. 2D has 0.96 and the similarity between the remaining unit images is 0.86 or less, the unit image of FIG. 2B and the unit image of FIG. 2D are merged to determine one unit image. An example of the merged image corresponds to FIG. 3B. 3A is an image corresponding to FIG. 2C as an image determined as an independent unit image since the histogram is not similar to other unit images.
원 영상이 각 단위 영상으로 최종 분할되고 나면, 후보 영상 선별부(12)는 인식 대상 피사체가 차지하는 영역을 추출하기 위해 원 영상 분할부(11)에 의해 분할된 단위 영상 중에서 후보 영상을 선별한다(S12).After the original image is finally divided into each unit image, the
후보 영상의 선별은 단위 영상에 포함된 인식 대상 피사체의 영상구도를 그 기반으로 하여 이루어지는데, 단위 영상의 중앙 근처에 일정 영역을 차지하고 있는 관심 영역을 인식 대상 피사체가 차지하는 영역으로 한다.The selection of the candidate image is performed based on the image composition of the object to be recognized included in the unit image, and the region of interest occupying a certain area near the center of the unit image is an area occupied by the object to be recognized.
인식 대상 피사체의 위치를 영상구도 측면에서 살펴보면 가장 일반적인 구도는 영상 중앙에 위치시키는 원형구도(도 4a), 화면의 상하좌우를 나누어 대칭되는 효과를 주는 대칭구도(도 4b), 영상 아래쪽에 무게를 두어 안정감이 느껴지는 삼각형구도(도 4c), S자형구도(도 4d), 수평 및 수직 구도(도 4e와 도 4f) 등이 있다.Looking at the position of the object to be recognized in terms of the image composition, the most common composition is a circular composition (FIG. 4A) positioned at the center of the image, a symmetrical composition (FIG. 4B) that divides the top, bottom, left, and right sides of the screen, and a weight at the bottom of the image. There is a triangular composition (FIG. 4C), an S-shaped composition (FIG. 4D), a horizontal and vertical composition (FIGS. 4E and 4F), and the like, which can feel stability.
후보 영상의 선별을 위해 단위 영상 이진화부(121)는 원 영상 분할부(11)에 의해 최종 분할된 각 단위 영상(본 실시예에서는 도 3a와 도 3b)을 이진화시킨다(S121). 이진화시키는 이유는 원 영상 분할부(11)에 의해 원 영상을 단위 영상으로 분할하였지만(본 실시예에서는 도 3a와 도 3b의 두 단위 영상으로 분할) 어느 영역이 관심 영역인지를 알 수가 없기 때문이다. 단위 영상의 이진화는 각 단위 영상의 휘도의 특정 임계치(예를 들어 0.09)를 기준으로 이루어진다. 도 3a와 도 3b에 제시된 단위 영상을 이 특정 임계치를 기준으로 각각 이진화시킨 이진 영상의 예가 도 5a와 도 5b에 각각 제시되어 있다.In order to select candidate images, the unit image binarizer 121 binarizes each unit image (FIG. 3A and FIG. 3B in the present embodiment) which is finally divided by the original image divider 11 (S121). The reason for binarization is that the original image is divided into unit images by the original image divider 11 (in this embodiment, divided into two unit images of FIGS. 3A and 3B), but it is not known which region is the region of interest. . The binarization of the unit image is performed based on a specific threshold (eg, 0.09) of the luminance of each unit image. Examples of binary images in which the unit images shown in FIGS. 3A and 3B are respectively binarized based on this particular threshold are shown in FIGS. 5A and 5B, respectively.
후보 영상 확정부(122)는 이진화된 각 단위 영상(본 실시예에서는 도 5a와 도 5b)에 가중치를 부여하여 그 중 가중치 적용의 결과값이 최대인 단위 영상을 후보 영상으로 확정한다(S122).The candidate image determiner 122 weights each of the binarized unit images (FIGS. 5A and 5B in the present embodiment) and determines the unit image having the maximum resultant value as the candidate image among them (S122). .
이때 가중치의 부여는 영상의 크기에 해당하는 가중치 마스크라는 수단을 통해서 이루어지며, 그 가중치 마스크의 일례가 도 6에 제시되어 있다. 가중치 마스크는 각 단위 영상으로부터 주요 객체를 분리해 내기 위해 도입되는 것이다.In this case, the weight is assigned through a means called a weight mask corresponding to the size of the image, and an example of the weight mask is shown in FIG. 6. The weight mask is introduced to separate the main object from each unit image.
단위 영상의 가로 크기가 m이고, 세로 크기가 n일 때, 영상의 주요 객체는, 상기 언급한 영상구도(사진구도)의 원리를 참작하면, 통상적으로 영상을 가로와 세 로 각 3등분(m/3, n/3)으로 나누는 수직선과 수평선이 교차하는 지점에 위치하는 것이 가장 일반적이며, 영상을 9등분했을 때 외곽과 접하게 위치하게 해서는 바람직하지 아니하다.When the horizontal size of the unit image is m and the vertical size is n, the main object of the image is generally divided into three horizontal (vertical and vertical) images by considering the principle of the above-described image composition (photo composition). It is most common to be located at the intersection of the vertical line and the horizontal line divided by / 3, n / 3), and it is not preferable to place the image in contact with the outside when the image is divided into nine equal parts.
따라서 사진촬영의 일반원리 및 삼각구도(도 4c)를 기반으로 단위 영상 내에 있는 인식 대상 피사체의 탐지를 위하여 각 이진화 영상의 외곽에는 마이너스 가중치(-3, -2), 중심 하단에는 플러스 가중치(+1), 외곽과 객체 사이에는 제로 가중치(0)를 설정한 도 6에 제시된 바와 같은 가중치 마스크가 가장 바람직한 가중치 마스크의 형태가 된다.Therefore, in order to detect the subject to be recognized in the unit image based on the general principle of photography and triangular composition (FIG. 4C), a negative weight (-3, -2) is shown at the outside of each binarized image and a positive weight (+) at the bottom of the center. 1), the weight mask as shown in FIG. 6 in which a zero weight (0) is set between the outer edge and the object is the most preferable weight mask.
즉, 마이너스 가중치가 부여된 부분은 주요 객체(인식 대상 피사체)가 위치해서는 바람직하지 아니한 곳이고, 플러스 가중치가 부여된 부분은 주요 객체가 위치하기에 가장 바람직한 곳이며, 제로 가중치가 부여된 부분은 마이너스 가중치가 부여된 부분에 비해서는 위치하기에 바람직하고 플러스 가중치가 부여된 부분에 비해서는 덜 바람직한 곳을 나타내는 것이다.That is, the negative weighted portion is not desirable where the main object (a subject to be recognized) is located, the positive weighted portion is the most preferable place for the main object, and the zero weighted portion is It is preferred to be located relative to the negatively weighted portion and less desirable than to the positively weighted portion.
이때 상단, 좌우, 중앙, 하단의 가중치를 다르게 부여한 이유는 사진촬영 원리와 삼각구도에 따른 결과이다. 삼각구도는 도 4a 내지 도 4f에 제시된 원형구도 및 타 구도와 일정부문 일치하는 경향이 있다. 또한 위치적으로 상단에 있는 객체 보다는 하단에 있는 객체를 주요객체로 판정할 가능성이 높다. 따라서 도 6에 제시된 가중치 마스크의 형태가 가장 바람직하다.In this case, the weights of the top, left, right, center, and bottom are different according to the photographing principle and the triangle composition. The triangular plot tends to coincide in part with the circular and other plots shown in FIGS. 4A-4F. It is also more likely to determine the object at the bottom as the primary object rather than the object at the top position. Therefore, the form of the weight mask shown in Figure 6 is most preferred.
다만, 위에서 언급한 사진 촬영 원리와 삼각구도를 굳이 따르지 아니하는 경우에는 가중치 마스크를 그에 맞게 부여할 수 있다. 예를 들어 영상의 외곽 부분에 위치한 피사체를 인식하기 위해서는 가중치 마스크의 외곽에 플러스 가중치를 부여하고 나머지 부분에는 제로 내지는 마이너스 가중치를 부여하는 것도 충분히 상정할 수 있다.However, the weight mask may be assigned accordingly if the above-mentioned photographing principle and the triangle sphere are not strictly followed. For example, in order to recognize a subject located at an outer portion of an image, it may be sufficient to give a positive weight to an outer portion of the weight mask and to give a zero or negative weight to the remaining portions.
본 발명에 따른 실시예에 의하면 도 5b에 제시된 이진화 영상이 도 5a에 제시된 이진화 영상보다 가중치 적용 결과값이 크므로 후보 영상으로 선별된다.According to an embodiment of the present invention, since the binarized image shown in FIG. 5B has a greater weighting result than the binarized image shown in FIG. 5A, the binarized image is selected as a candidate image.
후보 영상이 선별되면, 인식 영상 도출부(14)는 선별된 후보 영상으로부터 인식 대상 피사체(주요 객체)가 차지하는 영역을 추출하고, 추출된 영역에 인식 대상 피사체의 원 영상에서의 색상을 결합하여 인식 대상 피사체의 인식 영상을 도출한다(S14).When the candidate image is selected, the recognition
한편, 인식 대상 피사체가 차지하는 영역을 추출함에 있어서 그 영역의 개수가 다수인지를 판단하는 과정이 선행되는 것이 바람직하다. 차지하는 영역이 선별된 후보 영상의 여러 곳에 흩어져서 분포하는 경우 그 중에서 화소수가 특히 많은 영역이 인식 대상 피사체의 주요 부분 즉, 주요 객체(관심 영역)라고 볼 수 있으며, 주요 객체를 인식하는 것이 결국 인식 대상 피사체를 배경으로부터 추출하는 것에 대한 관건이기 때문이다.On the other hand, in extracting the area occupied by the subject to be recognized, it is preferable that the process of determining whether the number of the areas is large is preceded. If the occupied area is scattered and distributed in several places of the selected candidate image, the area having a particularly large number of pixels may be regarded as the main part of the subject to be recognized, that is, the main object (area of interest). This is because it is the key to extracting the subject from the background.
따라서, 영역 개수 판단부(13)는 선별된 후보 영상에서 인식 대상 피사체가 차지하는 영역의 개수가 다수인지를 판단하고(S13), 다수인 경우 각 영역에 레이블을 부여한다.Accordingly, the
인식 영상 도출부(14)는 레이블이 부여된 다수의 각 영역에 가중치 마스크를 적용하여 그 결과값이 최대인 하나의 영역 즉, 주요 객체(관심 영역)를 추출하여 그 주요 객체에 인식 대상 피사체의 원 영상에서의 색상을 결합하여 인식 대상 피사체의 인식 영상(결과 영상)을 도출한다(S14).The recognition
보다 자세히 말하면, 영역 개수 판단부(13)는 인식 대상 피사체가 차지하는 영역의 개수가 2개 이상인 경우 영역의 개수를 n이라고 했을 때, 도 7a에 제시된 바와 같이, 각각의 영역을 1번부터 n번까지의 레이블을 부여하여 구별한다.In more detail, when the number of areas occupied by the object to be recognized is two or more, when the number of areas is n, the area
인식 영상 도출부(14)는 레이블이 부여된 각 영역에 대해 가중치 마스크를 적용하되 도 6에 제시된 가중치 마스크의 음수(좌측외곽, 우측외곽, 상단) 가중치가 부여된 부분에 접하지 않는 영역으로서 가장 많은 화소수를 가지는 영역을 주요 객체(관심 영역)로 추출한다. 가장 많은 화소수를 가지는 영역이 가중치 마스크를 적용한 결과값이 가장 큰 영역이다.The recognition
도 7a는 각 영역에 레이블을 부여한 일례를 제시한 것이다. 도 7b 내지 도 7f는 영역의 크기 순서별로 일부를 차례대로 제시한 것인데, 도 7c 내지 도 7e와 같이 음수(좌측외곽, 우측외곽, 상단) 가중치가 부여된 부분과 접하고 있는 영역은 관심 영역에서 제외시킨다. 그리고 나머지 각 영역 중 최대 화소 수를 가지는 4번 영역(도 7b)을 주요 객체(관심 영역)로 추출한다.7A shows an example of labeling each region. 7B to 7F show a part of the area in order of size, and the areas in contact with the negative weighted parts (left outside, right outside, top) as shown in FIGS. 7C to 7E are excluded from the region of interest. Let's do it. The region 4 (FIG. 7B) having the maximum number of pixels among the remaining regions is extracted as the main object (region of interest).
인식 영상 도출부(14)는 이렇게 추출된 주요 객체에 인식 대상 피사체의 원 영상에서의 색상을 결합하여 인식 대상 피사체의 인식 영상(결과 영상)을 도출하게 되는 것이다. 도 8에 결과 영상의 일례가 제시되어 있다.The recognition
본 방법발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The present invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이제까지 본 발명에 대하여 그 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.The present invention has been described above with reference to preferred embodiments thereof. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention.
그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 균등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present invention.
도 1a는 본 시스템 발명의 바람직한 실시예의 구성을 제시한 도면이다.1A is a diagram showing the configuration of a preferred embodiment of the present invention.
도 1b는 본 방법 발명의 바람직한 흐름을 제시한 도면이다.1b shows a preferred flow of the method invention.
도 2는 원 영상과 원 영상으로부터 분할된 영상의 일례를 제시한 도면이다.2 is a diagram illustrating an example of an original image and an image divided from the original image.
도 3은 단위 영상으로 확정된 영상의 일례를 제시한 도면이다.3 is a diagram illustrating an example of an image determined as a unit image.
도 4a 내지 도 4f는 사진 구도를 설명하기 위한 예시 영상들을 제시한 도면이다.4A to 4F are diagrams showing exemplary images for explaining a picture composition.
도 5a와 도 5b는 단위 영상으로 선별된 영상에 대해 이진화시킨 영상의 일례이다.5A and 5B illustrate examples of binarized images of images selected as unit images.
도 6은 후보 영상의 도출을 위해 적용되는 가중치 마스크의 일례이다.6 is an example of a weight mask applied for deriving a candidate image.
도 7a 내지 도 7f는 인식 영상의 도출을 위해 필요한 절차를 설명하기 위한 예시 영상의 일례이다.7A to 7F are examples of exemplary images for explaining a procedure required for deriving a recognized image.
도 8은 본 발명에 의한 결과 영상의 일례이다.8 is an example of the resultant image according to the present invention.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080008756A KR100968244B1 (en) | 2008-01-28 | 2008-01-28 | System for recognizing a specific subject in image and Method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080008756A KR100968244B1 (en) | 2008-01-28 | 2008-01-28 | System for recognizing a specific subject in image and Method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090082798A KR20090082798A (en) | 2009-07-31 |
KR100968244B1 true KR100968244B1 (en) | 2010-07-06 |
Family
ID=41294041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080008756A KR100968244B1 (en) | 2008-01-28 | 2008-01-28 | System for recognizing a specific subject in image and Method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100968244B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200131425A (en) | 2019-05-14 | 2020-11-24 | 주식회사 아이에스피디 | Improvement apparatus and method of image processing speed and accuracy by multiple semantic segmentation models |
KR20200131424A (en) | 2019-05-14 | 2020-11-24 | 주식회사 아이에스피디 | Image processing apparatus and method by Semantic Segmentation |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101395094B1 (en) | 2010-09-29 | 2014-05-16 | 안동대학교 산학협력단 | Method and system for detecting object in input image |
KR101284388B1 (en) * | 2011-10-26 | 2013-07-09 | 연세대학교 산학협력단 | Method and apparatus for analyzing magnetic resonance imaging, and recording medium for executing the method |
KR101382904B1 (en) * | 2012-12-14 | 2014-04-08 | 포항공과대학교 산학협력단 | Methods of online video segmentation and apparatus for performing the same |
KR101930644B1 (en) * | 2017-09-15 | 2018-12-18 | 한국과학기술원 | Method and apparatus for fully automated segmenation of a joint using the patient-specific optimal thresholding and watershed algorithm |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030033A (en) * | 1998-07-09 | 2000-01-28 | Matsushita Electric Ind Co Ltd | Person detecting method |
-
2008
- 2008-01-28 KR KR1020080008756A patent/KR100968244B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030033A (en) * | 1998-07-09 | 2000-01-28 | Matsushita Electric Ind Co Ltd | Person detecting method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200131425A (en) | 2019-05-14 | 2020-11-24 | 주식회사 아이에스피디 | Improvement apparatus and method of image processing speed and accuracy by multiple semantic segmentation models |
KR20200131424A (en) | 2019-05-14 | 2020-11-24 | 주식회사 아이에스피디 | Image processing apparatus and method by Semantic Segmentation |
Also Published As
Publication number | Publication date |
---|---|
KR20090082798A (en) | 2009-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Perceive where to focus: Learning visibility-aware part-level features for partial person re-identification | |
US8401292B2 (en) | Identifying high saliency regions in digital images | |
US9898686B2 (en) | Object re-identification using self-dissimilarity | |
KR101971866B1 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US9053384B2 (en) | Feature extraction unit, feature extraction method, feature extraction program, and image processing device | |
KR100480781B1 (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
KR100968244B1 (en) | System for recognizing a specific subject in image and Method thereof | |
KR101030430B1 (en) | Apparatus and method for processing image and computer readable medium stored thereon computer executable instruction for performing the method | |
US20080044102A1 (en) | Method and Electronic Device for Detecting a Graphical Object | |
US20160314368A1 (en) | System and a method for the detection of multiple number-plates of moving cars in a series of 2-d images | |
US20160379078A1 (en) | Apparatus for and method of processing image based on object region | |
US9171224B2 (en) | Method of improving contrast for text extraction and recognition applications | |
US8290277B2 (en) | Method and apparatus for setting a lip region for lip reading | |
CN101286230B (en) | Image processing apparatus and method thereof | |
JP2016181159A (en) | System, retrieval method and program | |
CN108960247B (en) | Image significance detection method and device and electronic equipment | |
Shah | Face detection from images using support vector machine | |
Vinh | Real-time traffic sign detection and recognition system based on friendlyARM Tiny4412 board | |
Xu et al. | Rapid pedestrian detection based on deep omega-shape features with partial occlusion handing | |
KR101357581B1 (en) | A Method of Detecting Human Skin Region Utilizing Depth Information | |
US20210192255A1 (en) | Reading system, reading method, storage medium, and moving body | |
JP2016081472A (en) | Image processing device, and image processing method and program | |
JP6580201B2 (en) | Subject detection apparatus, subject detection method, and program | |
Vidyanagar | Oval shape detection and support vector machine based approach for human ear detection from 2D profile face image | |
JP2000242782A (en) | Device and method for detecting object in image and recording medium having recorde the method thereon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130405 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140304 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |