KR20200048256A - 객체 정보 추출 장치 및 방법 - Google Patents
객체 정보 추출 장치 및 방법 Download PDFInfo
- Publication number
- KR20200048256A KR20200048256A KR1020180130146A KR20180130146A KR20200048256A KR 20200048256 A KR20200048256 A KR 20200048256A KR 1020180130146 A KR1020180130146 A KR 1020180130146A KR 20180130146 A KR20180130146 A KR 20180130146A KR 20200048256 A KR20200048256 A KR 20200048256A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- object information
- padding
- confidence map
- confidence
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 238000013145 classification model Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000007547 defect Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/38—
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
객체 정보 추출 장치 및 방법이 개시된다. 일 실시예에 따른 객체 정보 추출 장치는, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함한다.
Description
개시되는 실시예들은 이미지에 포함된 객체에 대한 객체 정보를 추출하는 기술과 관련된다.
자동화 설비를 갖춘 시스템에 있어서 정확한 위치에서 제품에 대한 영상을 촬영하는 것은 제품의 결함을 분류하는 성능 및 시스템의 안정성과 연결되는 것으로 매우 중요하다. 따라서, 자동화 설비 라인의 문제, 카메라의 문제 등으로 인해 제품에 대한 영상을 정확한 위치에서 촬영하지 못하는 경우, 자동화 설비 시스템은 제품의 결함을 정확하게 분류하지 못하게 되고, 결국에는 시스템 자체에 문제가 발생하게 된다.
한편, 종래의 기술은 영상 처리와 관련된 딥러닝(Deep learning) 모델을 이용하여 제품의 결함을 검출한다. 예를 들어, 영상 처리와 관련된 종래의 딥러닝 모델로서 영상 분류(Image Classification) 모델, 객체 탐지(Object Detection) 모델, 객체 분할(Object Segmentation) 모델 등이 있다. 이때, 영상 분류 모델은 영상 내에 포함된 객체를 분류하는 성능은 좋으나 해당 객체의 위치를 검출할 수 없는 문제점이 있다. 객체 탐지 및 객체 분할 모델은 영상 내에 포함된 객체의 위치를 검출할 수 있으나 객체를 분류하는 성능이 떨어진다. 또한, 객체 탐지 및 객체 분할 모델은 위치 정보가 포함된 데이터를 학습 데이터로 사용하기 때문에 해당 학습 데이터를 구하는데 많은 시간 및 비용이 소요된다는 문제점이 있다.
따라서, 자동화 설비를 갖춘 시스템에서 제품에 대한 영상 내에 포함된 결함을 분류하고, 분류된 결함의 위치를 추출하는 성능을 높일 수 있는 방안이 요구되고 있다.
개시되는 실시예들은 객체 정보 추출 장치 및 방법을 제공하기 위한 것이다.
일 실시예에 따른 객체 정보 추출 장치는, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함한다.
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정될 수 있다.
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치할 수 있다.
상기 부분 이미지 획득부는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가질 수 있다.
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다.
상기 객체 정보 획득부는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
상기 객체 정보 획득부는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득할 수 있다.
일 실시예에 따른 객체 정보 추출 방법은, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 단계, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 단계, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 단계, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 단계 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 단계를 포함한다.
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정될 수 있다.
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치할 수 있다.
상기 부분 이미지를 획득하는 단계는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가질 수 있다.
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다.
상기 객체 정보를 획득하는 단계는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
상기 객체 정보를 획득하는 단계는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득할 수 있다.
개시되는 실시예들에 따르면, 객체 분류 성능이 높은 영상 분류 모델을 이용하여 영상 내에 포함된 특정 객체의 위치를 추출함으로써 객체 분류 및 객체 위치 추출의 정확도를 높일 수 있고, 위치 정보가 포함된 학습 데이터를 수집하는데 소요되는 시간 및 비용을 절감할 수 있다.
도 1은 일 실시예에 따른 객체 정보 추출 장치의 구성도
도 2는 일 실시예에 따른 패딩 이미지를 예시한 도면
도 3은 일 실시예에 따른 부분 이미지를 추출하는 예를 설명하기 위한 도면
도 4 및 5는 일 실시예에 따른 부분 이미지를 추출하는 다른 예를 설명하기 위한 도면
도 6은 일 실시예에 따른 객체 분류 결과를 획득하는 일 예를 설명하기 위한 도면
도 7은 일 실시예에 따른 객체 분류 결과를 획득하는 다른 예를 설명하기 위한 도면
도 8은 일 실시예에 따른 컨피던스 값을 증가시키는 예를 설명하기 위한 도면
도 9는 일 실시예에 따른 이진화 이미지를 생성하는 예를 설명하기 위한 도면
도 10은 일 실시예에 따른 이진화 이미지를 예시한 도면
도 11은 일 실시예에 따른 객체 정보 추출 방법의 순서도
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
도 2는 일 실시예에 따른 패딩 이미지를 예시한 도면
도 3은 일 실시예에 따른 부분 이미지를 추출하는 예를 설명하기 위한 도면
도 4 및 5는 일 실시예에 따른 부분 이미지를 추출하는 다른 예를 설명하기 위한 도면
도 6은 일 실시예에 따른 객체 분류 결과를 획득하는 일 예를 설명하기 위한 도면
도 7은 일 실시예에 따른 객체 분류 결과를 획득하는 다른 예를 설명하기 위한 도면
도 8은 일 실시예에 따른 컨피던스 값을 증가시키는 예를 설명하기 위한 도면
도 9는 일 실시예에 따른 이진화 이미지를 생성하는 예를 설명하기 위한 도면
도 10은 일 실시예에 따른 이진화 이미지를 예시한 도면
도 11은 일 실시예에 따른 객체 정보 추출 방법의 순서도
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 이에 제한되지 않는다.
실시예들을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 또한, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 일 실시예에 따른 객체 정보 추출 장치(100)의 구성도이다.
도 1을 참조하면, 객체 정보 추출 장치(100)는 패딩 이미지 생성부(110), 부분 이미지 획득부(130), 객체 분류 결과 획득부(150), 컨피던스 맵 생성부(170) 및 객체 정보 획득부(190)를 포함한다.
패딩 이미지 생성부(110)는 원본 이미지를 포함하는 패딩(padding) 이미지를 생성한다.
원본 이미지는 이미지 내에 포함된 특정 객체를 분류하기 위해 데이터 정규화를 통해 전처리된 이미지일 수 있다. 예를 들어, 자동차 생산라인에서 카메라와 같은 촬영 수단을 통해 자동차를 촬영한 경우, 원본 이미지는 자동차를 촬영한 이미지에 포함된 특정 객체를 분류하기 위해 전처리된 이미지일 수 있다. 이때, 객체는 제품의 결함을 의미할 수 있다. 예를 들어, 제품이 자동차인 경우, 객체는 자동차의 외부면에 있는 먼지, 흠집, 이물질 등을 포함할 수 있다
패딩 이미지는 원본 이미지를 포함하되 원본 이미지보다 크기가 큰 이미지를 의미한다. 일 실시예에 따르면, 패딩 이미지는 원본 이미지 부분을 제외한 나머지 영역이 임의의 값을 가지는 픽셀들로 구성될 수 있다.
한편, 패딩 이미지에서 원본 이미지 영역을 제외한 나머지 영역의 픽셀들은 서로 동일한 값을 가질 수 있다. 또한, 패딩 이미지에서 원본 이미지 영역은 패딩 이미지의 정중앙에 위치할 수 있으나 실시예에 따라 원본 이미지 영역의 위치를 변경될 수 있다.
도 2는 일 실시예에 따른 패딩 이미지를 예시한 도면이다.
도 2를 참조하면, 원본 이미지(210)는 객체(211) 및 복수의 노이즈(212, 213, 214)를 포함하는 것으로 가정한다.
이때, 패딩 이미지 생성부(110)는 원본 이미지(210)를 정중앙에 위치시키고, 원본 이미지(210)의 외부 영역에 임의의 픽셀 값을 가지는 픽셀들을 추가하여 패딩 이미지(220)를 생성할 수 있다.
다시 도 1을 참조하면, 부분 이미지 획득부(130)는 패딩 이미지에 대한 복수의 부분 이미지를 획득한다. 이때, 부분 이미지는 패딩 이미지 내 일부 영역을 추출한 이미지를 의미할 수 있다. 또한, 부분 이미지는 원본 이미지와 동일한 크기를 가질 수 있으나, 반드시 이에 한정되는 것은 아니며, 실시예에 따라 다양한 크기를 가질 수 있다.
일 실시예에 따르면, 부분 이미지 획득부(130)는 기 설정된 크기를 갖는 윈도우(window)를 패딩 이미지 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
구체적으로, 부분 이미지 획득부(130)는 기 설정된 이동 간격에 따라 이동하는 윈도우의 영역에 포함된 패딩 이미지의 영역을 복사하여 부분 이미지로 추출할 수 있다.
도 3은 일 실시예에 따른 부분 이미지를 추출하는 예를 설명하기 위한 도면이다.
도 3을 참조하면, 부분 이미지 획득부(130)는 기 설정된 크기의 윈도우(310)를 생성한 후 패딩 이미지(220)의 좌측 상단 및 우측 하단을 각각 윈도우(310) 이동의 시작점 및 끝점으로 설정하여 윈도우(310)를 패딩 이미지(220)의 좌측 상단부터 우측 하단까지 화살표 방향을 따라 이동시킬 수 있다. 부분 이미지 획득부(130)는 사용자에 의해 기 설정된 이동 간격만큼 윈도우(310)를 화살표 방향으로 이동시킬 수 있다. 이때, 부분 이미지 획득부(130)는 화살표 방향을 따라 움직이는 윈도우(310) 내에 포함된 영역을 복사하여 패딩 이미지(220)에 대한 부분 이미지(320)를 추출할 수 있다.
한편, 부분 이미지 획득부(130)가 윈도우를 이동시키는 방식은 상술한 예에 한정되는 것은 아니고, 윈도우가 이동하는 방향, 윈도우의 이동 시작점, 끝점 등은 다양한 방식으로 설정될 수 있다.
또한, 윈도우의 이동 간격은 사용자의 설정에 따라 다양한 값을 가질 수 있다. 구체적으로 사용자가 윈도우의 이동 간격을 짧게 설정하는 경우, 객체 정보를 추출하는데 사용되는 패딩 이미지에 대한 복수의 부분 이미지를 많이 획득할 수 있으므로 객체 정보 추출 장치(100)의 객체 정보 추출 정확도를 높일 수 있다. 반대로, 사용자가 윈도우의 이동 간격을 길게 설정하는 경우, 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 소요되는 시간이 줄어들게 되므로 객체 정보 추출 장치(100)의 객체 정보 추출에 소요되는 시간을 줄일 수 있다.
도 4 및 5는 일 실시예에 따른 부분 이미지를 추출하는 다른 예를 설명하기 위한 도면이다.
도 4 및 5를 참조하면, 우선, 부분 이미지 획득부(130)는 크기가 큰 윈도우(410)를 생성한 후 윈도우(410)를 패딩 이미지 내에서 이동시키면서 객체가 있는 후보 영역을 검출할 수 있다. 이때, 부분 이미지 획득부(130)는 윈도우(410)의 이동 간격을 길게 설정하여 후보 영역을 빠르게 검출할 수 있다.
이후, 부분 이미지 획득부(130)는 크기가 작은 윈도우(510)를 생성한 후 생성된 윈도우(510)를 후보 영역(410) 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지(220)에 대한 부분 이미지를 추출할 수 있다. 이때, 부분 이미지 획득부(130)는 윈도우(510)의 이동 간격을 짧게 설정하여 객체의 정확한 위치를 추출할 수 있다.
다시 도 1을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델을 이용하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득한다.
이때, 객체 분류 모델은 사전 수집된 영상을 학습 데이터로 이용하여 영상 내에 포함된 특정 객체를 분류하도록 학습된 딥러닝(Deep learning) 모델일 수 있다.
구체적으로, 객체 분류 결과 획득부(150)는 패딩 이미지에 대한 복수의 부분 이미지를 각각 객체 분류 모델에 입력하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득할 수 있다. 이때, 객체 분류 결과 획득부(150)는 객체 분류 결과로써 부분 이미지에서 객체가 검출되었는지 여부, 부분 이미지에서 검출된 객체에 대한 정보 등을 획득할 수 있다.
도 6은 일 실시예에 따른 객체 분류 결과를 획득하는 일 예를 설명하기 위한 도면이다.
도 6에 도시된 예에서, 부분 이미지 획득부(130)에 의해 획득된 패딩 이미지(220)에 대한 부분 이미지(320)는 객체(211)를 포함하지 않는 것으로 가정한다.
도 6을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(610)을 이용하여 부분 이미지(320) 내 포함된 객체를 분류할 수 있다. 이때, 도시된 예에서는 부분 이미지(320) 내 객체가 포함되어 있지 않으므로, 객체 분류 결과 획득부(150)는 부분 이미지(320)에 대한 객체 분류 결과로서 부분 이미지(320)에서 객체가 검출되지 않았다는 정보를 획득할 수 있다.
도 7은 일 실시예에 따른 객체 분류 결과를 획득하는 다른 예를 설명하기 위한 도면이다.
도 7에 도시된 예에서, 부분 이미지 획득부(130)에 의해 획득된 패딩 이미지(220)에 대한 부분 이미지(710)는 객체(211)를 포함하는 것으로 가정한다.
도 7을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(410)을 이용하여 부분 이미지(710) 내 객체(211)를 분류할 수 있다. 이때, 객체 분류 결과 획득부(150)는 부분 이미지(510)에 대한 객체 분류 결과로서 부분 이미지(510)에서 객체(211)가 검출되었다는 정보를 획득할 수 있다.
다시 도 1을 참조하면, 컨피던스 맵 생성부(170)는 패딩 이미지와 동일한 크기를 가지고, 복수의 부분 이미지 각각에 대한 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성한다.
구체적으로, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과 예를 들어, 부분 이미지에서 객체가 검출되었는지 여부에 기초하여 패딩 이미지를 구성하는 각 픽셀에 대한 컨피던스 값을 표시하여 패딩 이미지에 대응되는 컨피던스 맵을 생성할 수 있다.
일 실시예에 따르면, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과에 기초하여 컨피던스 맵 내에서 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
구체적으로, 컨피던스 맵 생성부(170)는 부분 이미지에 대한 객체 분류 결과 예를 들어, 부분 이미지에서 객체가 검출되었는지 여부에 따라 컨피던스 맵 내에서 해당 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬지 여부를 결정할 수 있다.
예를 들어, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과에 따라 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 컨피던스 맵 내에서 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
도 8은 일 실시예에 따른 컨피던스 값을 증가시키는 예를 설명하기 위한 도면이다.
도 8을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(610)을 이용하여 패딩 이미지(220)에 대한 부분 이미지(710)에서 객체(211)를 검출한 것으로 가정한다. 이때, 컨피던스 맵 생성부(170)는 컨피던스 맵(810) 내에서 객체(221)가 검출된 부분 이미지(710)에 대응되는 영역(811)의 컨피던스 값을 증가시킬 수 있다.
한편, 도 8에서는 부분 이미지에서 객체가 검출되었을 때 컨피던스 값이 증가하는 수치 값이 1인 것으로 예시하였으나, 반드시 이에 한정되는 것은 아니고, 컨피던스 값의 증가량은 실시예에 따라 다양하게 설정될 수 있다.
다시 도 1을 참조하면, 객체 정보 획득부(190)는 컨피던스 맵에 기초하여 패딩 이미지 내 객체 정보를 획득한다.
이때, 객체 정보는 원본 이미지에 포함된 객체에 대한 정보를 의미한다. 일 실시예에 따르면, 객체 정보는 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다. 예를 들어, 객체 정보는 객체의 크기, 위치 등을 포함할 수 있다.
구체적으로, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값을 이용하여 패딩 이미지 내 객체 정보를 획득할 수 있다.
일 실시예에 따르면, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값에 기초하여 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다. 이때, 이진화 이미지는 컨피던스 값에 기초하여 이미지 내 모든 픽셀 각각이 검은색 및 흰색 중 하나로 표현된 이미지를 의미한다.
예를 들어, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값을 기 설정된 임계 값과 비교할 수 있다. 이때, 객체 정보 획득부(190)는 비교 결과에 따라 컨피던스 값이 기 설정된 임계 값보다 작은 경우, 이진화 이미지 내에서 해당 컨피던스 값이 포함된 영역에 대응되는 픽셀의 픽셀 값을 0으로 설정할 수 있다. 이와 달리, 객체 정보 획득부(190)는 비교 결과에 따라 컨피던스 값이 기 설정된 임계 값보다 크거나 같은 경우, 이진화 이미지 내에서 해당 컨피던스 값이 표시된 영역에 대응되는 픽셀의 픽셀 값을 255로 설정할 수 있다. 객체 정보 획득부(190)는 상술한 방식에 따라 컨피던스 맵의 모든 영역에 대해 이진화를 수행하여 컨피던스 맵에 대응되는 이진화 이미지를 획득할 수 있다.
도 9는 일 실시예에 따른 이진화 이미지를 생성하는 예를 설명하기 위한 도면이다.
도 9를 참조하면, 이진화 이미지(930)를 생성하기 위해 기 설정된 임계 값이 9인것으로 가정하면, 객체 정보 획득부(190)는 컨피던스 맵(910)에 포함된 컨피던스 값이 9보다 작은지 또는 9보다 크거나 같은지를 판단할 수 있다. 이때, 객체 정보 획득부(190)는 컨피던스 맵(910) 내에서 기 설정된 임계 값과 동일한 컨피던스 값을 가지는 영역(920)에 대응되는 이진화 이미지(930) 내 픽셀을 흰색으로 설정할 수 있다. 또한, 객체 정보 획득부(190)는 컨피던스 맵(910) 내에서 기 설정된 임계 값보다 작은 컨피던스 값을 가지는 영역들 각각에 대응되는 이진화 이미지(930) 내 픽셀들을 검은색으로 설정함으로써 컨피던스 맵(910)에 대응되는 이진화 이미지(930)를 생성할 수 있다.
도 10은 일 실시예에 따른 이진화 이미지를 예시한 도면이다.
도 10을 참조하면, 패딩 이미지(220)가 좌측에 도시된 도면인 것으로 가정하는 경우, 패딩 이미지(220)에 대응되는 컨피던스 맵에 대한 이진화 이미지(1010)는 우측에 도시된 도면과 같이 생성될 수 있다.
다시 도 1을 참조하면, 객체 정보 획득부(190)는 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 패딩 이미지 내 객체 정보를 획득할 수 있다.
예를 들어, 객체 정보 획득부(190)는 연결 성분 분석(Connected Component Analysis)을 이용하여 이진화 이미지로부터 패딩 이미지 내 객체 정보를 획득할 수 있다. 이때, 연결 성분 분석은 이진화 이미지에 하나 이상의 객체가 포함되는 경우, 동일한 객체에 포함된 픽셀들에 고유한 번호를 레이블링(labeling)하여 하나 이상의 객체 각각에 대한 객체 정보를 획득하는 영상 처리 알고리즘을 의미할 수 있다.
도 11은 일 실시예에 따른 객체 정보 추출 방법에 대한 순서도이다.
도 11에 도시된 방법은 예를 들어, 도 1에 도시된 객체 정보 추출 장치(100)에 의해 수행될 수 있다.
도 11을 참조하면, 객체 정보 추출 장치(100)는 원본 이미지를 포함하는 패딩 이미지를 생성한다(1110).
이후, 객체 정보 추출 장치(100)는 패딩 이미지에 대한 복수의 부분 이미지를 획득한다(1120).
이때, 객체 정보 추출 장치(100)는 기 설정된 크기를 갖는 윈도우를 패딩 이미지 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
이후, 객체 정보 추출 장치(100)는 객체 분류 모델을 이용하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득한다(1130).
이후, 객체 정보 추출 장치(100)는 패딩 이미지와 동일한 크기를 가지고, 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵을 생성한다(1140).
이때, 객체 정보 추출 장치(100)는 객체 분류 결과에 기초하여 컨피던스 맵 내에서 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
예를 들어, 객체 정보 추출 장치(100)는 객체 분류 결과에 따라 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 컨피던스 맵 내에서 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
이후, 객체 정보 추출 장치(100)는 컨피던스 맵에 기초하여 패딩 이미지 내 객체 정보를 획득한다(1150).
이때, 객체 정보 추출 장치(100)는 컨피던스 맵에 포함된 컨피던스 값에 기초하여 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
또한, 객체 정보 추출 장치(100)는 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 객체 정보를 획득할 수 있다.
한편, 도 11에 도시된 순서도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 예를 들어, 도 1에 도시된 패딩 이미지 생성부(110), 부분 이미지 획득부(130), 객체 분류 결과 획득부(150), 컨피던스 맵 생성부(170) 및 객체 정보 획득부(190)와 같이 객체 정보 추출 장치(100)에 포함되는 하나 이상의 컴포넌트일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
[표 1]
표 1은 객체 정보 추출 장치(100)와 종래의 모델 간의 성능을 비교한 표이다.
우선, 종래의 기술인 영상 분류(Image Classification) 모델은 객체 탐지 기능 즉, 객체의 위치(location) 및 분할(segmentation) 정보를 획득할 수 없다. 또한, 영상 분류 모델은 영상 전체에 대한 분류만 가능하고, 복합된 객체의 경우 분류가 불가능하다. 반면, 객체 정보 추출 장치(100)는 객체 탐지를 위한 추가 학습 없이 객체의 위치 및 분할 정보를 획득할 수 있다. 또한, 객체 정보 추출 장치(100)는 복합된 객체의 경우에도 각 객체마다 분류가 가능하다.
다음으로, 종래의 기술인 객체 탐지(Object Detection) 모델은 학습하기 위해서 학습 이미지(training image)에 포함된 객체에 대한 정보가 추가적으로 필요하다. 구체적으로, 객체 탐지 모델은 사용자가 직접 학습 이미지에 주석을 추가하여 객체에 대한 정보를 입력해야 하기 때문에 학습이 복잡하고, 학습하는데 소요되는 시간이 길다. 반면, 객체 정보 추출 장치(100)는 기 학습된 영상 분류 모델을 재학습시킬 필요가 없고, 별도로 데이터에 주석을 추가하는 작업 없이 기존에 모델에 입력된 데이터를 이용하여 객체 탐지 기능을 수행할 수 있다.
따라서, 객체 정보 추출 장치(100)는 종래의 모델들에 비하여 모델의 구조가 간단하고, 모델 구현성이 용이하며, 객체 분류 및 객체 탐지 성능이 우수하다.
이상에서는 실시예들을 중심으로 기술적 특징들을 설명하였다. 하지만, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한고, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 객체 정보 추출 장치
110: 패딩 이미지 생성부
130: 부분 이미지 획득부
150: 객체 분류 결과 획득부
170: 컨피던스 맵 생성부
190: 객체 정보 획득부
210: 원본 이미지
211: 객체
212, 213, 214: 노이즈
220: 패딩 이미지
310, 410, 510: 윈도우
320, 710: 부분 이미지
610: 객체 분류 모델
810, 910: 컨피던스 맵
930, 1010: 이진화 이미지
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 객체 정보 추출 장치
110: 패딩 이미지 생성부
130: 부분 이미지 획득부
150: 객체 분류 결과 획득부
170: 컨피던스 맵 생성부
190: 객체 정보 획득부
210: 원본 이미지
211: 객체
212, 213, 214: 노이즈
220: 패딩 이미지
310, 410, 510: 윈도우
320, 710: 부분 이미지
610: 객체 분류 모델
810, 910: 컨피던스 맵
930, 1010: 이진화 이미지
Claims (20)
- 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부;
상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부;
객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부;
상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부; 및
상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함하는 객체 정보 추출 장치.
- 청구항 1에 있어서,
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정되는 객체 정보 추출 장치.
- 청구항 2에 있어서,
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치하는 객체 정보 추출 장치.
- 청구항 1에 있어서,
상기 부분 이미지 획득부는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출하는 객체 정보 추출 장치.
- 청구항 4에 있어서,
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가지는 객체 정보 추출 장치.
- 청구항 1에 있어서,
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정하는 객체 정보 추출 장치.
- 청구항 6에 있어서,
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시키는 객체 정보 추출 장치.
- 청구항 1에 있어서,
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함하는 객체 정보 추출 장치.
- 청구항 1에 있어서,
상기 객체 정보 획득부는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성하는 객체 정보 추출 장치.
- 청구항 9에 있어서,
상기 객체 정보 획득부는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득하는 객체 정보 추출 장치.
- 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 단계;
상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 단계;
객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 단계;
상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 단계; 및
상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 단계를 포함하는 객체 정보 추출 방법.
- 청구항 11에 있어서,
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정되는 객체 정보 추출 방법.
- 청구항 12에 있어서,
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치하는 객체 정보 추출 방법.
- 청구항 11에 있어서,
상기 부분 이미지를 획득하는 단계는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출하는 객체 정보 추출 방법.
- 청구항 14에 있어서,
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가지는 객체 정보 추출 방법.
- 청구항 11에 있어서,
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정하는 객체 정보 추출 방법.
- 청구항 16에 있어서,
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시키는 객체 정보 추출 방법.
- 청구항 11에 있어서,
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함하는 객체 정보 추출 방법.
- 청구항 11에 있어서,
상기 객체 정보를 획득하는 단계는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성하는 객체 정보 추출 방법.
- 청구항 19에 있어서,
상기 객체 정보를 획득하는 단계는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득하는 객체 정보 추출 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180130146A KR102653177B1 (ko) | 2018-10-29 | 2018-10-29 | 객체 정보 추출 장치 및 방법 |
US16/665,575 US11200694B2 (en) | 2018-10-29 | 2019-10-28 | Apparatus and method for extracting object information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180130146A KR102653177B1 (ko) | 2018-10-29 | 2018-10-29 | 객체 정보 추출 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200048256A true KR20200048256A (ko) | 2020-05-08 |
KR102653177B1 KR102653177B1 (ko) | 2024-04-01 |
Family
ID=70327564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180130146A KR102653177B1 (ko) | 2018-10-29 | 2018-10-29 | 객체 정보 추출 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11200694B2 (ko) |
KR (1) | KR102653177B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220114904A (ko) | 2021-02-09 | 2022-08-17 | 동서대학교 산학협력단 | 웹서버 기반으로 객체 추출 서비스 방법 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210065353A1 (en) * | 2019-08-30 | 2021-03-04 | Nectar Exchange LLC | Automated collectible card grading system |
CN114600196A (zh) * | 2019-10-17 | 2022-06-07 | 华为云计算技术有限公司 | 特定领域的人类模型协同注释工具 |
US11748928B2 (en) * | 2020-11-10 | 2023-09-05 | Adobe Inc. | Face anonymization in digital images |
KR20230009718A (ko) * | 2021-07-09 | 2023-01-17 | (주)유아이엠디 | 검사영역 지정에 기반한 혈구 디텍션 및 클래시피케이션 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697755B2 (en) * | 2004-09-29 | 2010-04-13 | Drvision Technologies Llc | Method for robust analysis of biological activity in microscopy images |
KR20120064581A (ko) | 2010-12-09 | 2012-06-19 | 한국전자통신연구원 | 영상 분류 방법 및 이를 위한 장치 |
US9165369B1 (en) * | 2013-03-14 | 2015-10-20 | Hrl Laboratories, Llc | Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6578017B1 (en) * | 1999-02-26 | 2003-06-10 | Information Decision Technologies, Llc | Method to aid object detection in images by incorporating contextual information |
US6833845B2 (en) * | 2000-10-27 | 2004-12-21 | Matsushita Electric Industrial Co., Ltd. | Image object content generation device and padding device |
US6819790B2 (en) * | 2002-04-12 | 2004-11-16 | The University Of Chicago | Massive training artificial neural network (MTANN) for detecting abnormalities in medical images |
US20050157939A1 (en) * | 2004-01-16 | 2005-07-21 | Mark Arsenault | Processes, products and systems for enhancing images of blood vessels |
US7486802B2 (en) * | 2004-06-07 | 2009-02-03 | Ford Global Technologies Llc | Adaptive template object classification system with a template generator |
US7474775B2 (en) * | 2005-03-31 | 2009-01-06 | University Of Iowa Research Foundation | Automatic detection of red lesions in digital color fundus photographs |
US9025836B2 (en) * | 2011-10-28 | 2015-05-05 | Intellectual Ventures Fund 83 Llc | Image recomposition from face detection and facial features |
EP3563265B1 (en) * | 2016-12-30 | 2021-06-02 | DeepMap Inc. | High definition map updates |
US10924747B2 (en) * | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
US11256977B2 (en) * | 2017-12-29 | 2022-02-22 | Facebook, Inc. | Lowering hardware for neural networks |
WO2019227447A1 (zh) * | 2018-05-31 | 2019-12-05 | 深圳市大疆创新科技有限公司 | 数据处理方法和处理电路 |
KR101939349B1 (ko) * | 2018-07-09 | 2019-04-11 | 장현민 | 기계학습모델을 이용하여 자동차용 어라운드 뷰 영상을 제공하는 방법 |
CN109325918B (zh) * | 2018-07-26 | 2022-05-13 | 京东方科技集团股份有限公司 | 一种图像处理的方法、装置及计算机存储介质 |
-
2018
- 2018-10-29 KR KR1020180130146A patent/KR102653177B1/ko active IP Right Grant
-
2019
- 2019-10-28 US US16/665,575 patent/US11200694B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697755B2 (en) * | 2004-09-29 | 2010-04-13 | Drvision Technologies Llc | Method for robust analysis of biological activity in microscopy images |
KR20120064581A (ko) | 2010-12-09 | 2012-06-19 | 한국전자통신연구원 | 영상 분류 방법 및 이를 위한 장치 |
US9165369B1 (en) * | 2013-03-14 | 2015-10-20 | Hrl Laboratories, Llc | Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes |
Non-Patent Citations (1)
Title |
---|
Rui Zhao, "Saliency Detection by Multi-Context Deep Learning", Proceedings of the IEEE conference on computer vision and pattern recognition (2015.06.08-12.)* * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220114904A (ko) | 2021-02-09 | 2022-08-17 | 동서대학교 산학협력단 | 웹서버 기반으로 객체 추출 서비스 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102653177B1 (ko) | 2024-04-01 |
US20200134858A1 (en) | 2020-04-30 |
US11200694B2 (en) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102653177B1 (ko) | 객체 정보 추출 장치 및 방법 | |
EP3882808B1 (en) | Face detection model training method and apparatus, and face key point detection method and apparatus | |
CN107545262B (zh) | 一种在自然场景图像中检测文本的方法及装置 | |
US10902056B2 (en) | Method and apparatus for processing image | |
CN107358596B (zh) | 一种基于图像的车辆定损方法、装置、电子设备及*** | |
JP6446971B2 (ja) | データ処理装置、データ処理方法、及び、コンピュータ・プログラム | |
JP5775225B2 (ja) | マルチレイヤ連結成分をヒストグラムと共に用いるテキスト検出 | |
CN110059596B (zh) | 一种图像识别方法、装置、介质和电子设备 | |
US9025889B2 (en) | Method, apparatus and computer program product for providing pattern detection with unknown noise levels | |
WO2019171628A1 (en) | Image processing system and image processing method | |
Yuan et al. | A method for the evaluation of image quality according to the recognition effectiveness of objects in the optical remote sensing image using machine learning algorithm | |
CN111368944B (zh) | 翻拍图像、证件照识别、模型训练方法、装置及电子设备 | |
CN103383732A (zh) | 图像处理方法和装置 | |
JP2019220014A (ja) | 画像解析装置、画像解析方法及びプログラム | |
JP2014199506A (ja) | 物体検出装置、物体検出方法及びプログラム | |
KR102230559B1 (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN112287905A (zh) | 车辆损伤识别方法、装置、设备及存储介质 | |
WO2022019018A1 (en) | Segmentation of continuous dynamic scans | |
CN112446850A (zh) | 适配测试方法、装置及电子设备 | |
CN111753836A (zh) | 文字识别方法、装置、计算机可读介质及电子设备 | |
US20220122341A1 (en) | Target detection method and apparatus, electronic device, and computer storage medium | |
KR102342495B1 (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN113191251B (zh) | 一种笔顺检测方法、装置、电子设备和存储介质 | |
JP6731883B2 (ja) | 参照画像選択装置、方法、及びプログラム | |
US12033218B2 (en) | Assessing damages on vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |