KR102653177B1 - 객체 정보 추출 장치 및 방법 - Google Patents

객체 정보 추출 장치 및 방법 Download PDF

Info

Publication number
KR102653177B1
KR102653177B1 KR1020180130146A KR20180130146A KR102653177B1 KR 102653177 B1 KR102653177 B1 KR 102653177B1 KR 1020180130146 A KR1020180130146 A KR 1020180130146A KR 20180130146 A KR20180130146 A KR 20180130146A KR 102653177 B1 KR102653177 B1 KR 102653177B1
Authority
KR
South Korea
Prior art keywords
image
object information
padding
confidence map
partial
Prior art date
Application number
KR1020180130146A
Other languages
English (en)
Other versions
KR20200048256A (ko
Inventor
양희성
조성호
전중배
박도영
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020180130146A priority Critical patent/KR102653177B1/ko
Priority to US16/665,575 priority patent/US11200694B2/en
Publication of KR20200048256A publication Critical patent/KR20200048256A/ko
Application granted granted Critical
Publication of KR102653177B1 publication Critical patent/KR102653177B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

객체 정보 추출 장치 및 방법이 개시된다. 일 실시예에 따른 객체 정보 추출 장치는, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함한다.

Description

객체 정보 추출 장치 및 방법{APPARATUS AND METHOD FOR EXTRACTING OBJECT INFORMATION}
개시되는 실시예들은 이미지에 포함된 객체에 대한 객체 정보를 추출하는 기술과 관련된다.
자동화 설비를 갖춘 시스템에 있어서 정확한 위치에서 제품에 대한 영상을 촬영하는 것은 제품의 결함을 분류하는 성능 및 시스템의 안정성과 연결되는 것으로 매우 중요하다. 따라서, 자동화 설비 라인의 문제, 카메라의 문제 등으로 인해 제품에 대한 영상을 정확한 위치에서 촬영하지 못하는 경우, 자동화 설비 시스템은 제품의 결함을 정확하게 분류하지 못하게 되고, 결국에는 시스템 자체에 문제가 발생하게 된다.
한편, 종래의 기술은 영상 처리와 관련된 딥러닝(Deep learning) 모델을 이용하여 제품의 결함을 검출한다. 예를 들어, 영상 처리와 관련된 종래의 딥러닝 모델로서 영상 분류(Image Classification) 모델, 객체 탐지(Object Detection) 모델, 객체 분할(Object Segmentation) 모델 등이 있다. 이때, 영상 분류 모델은 영상 내에 포함된 객체를 분류하는 성능은 좋으나 해당 객체의 위치를 검출할 수 없는 문제점이 있다. 객체 탐지 및 객체 분할 모델은 영상 내에 포함된 객체의 위치를 검출할 수 있으나 객체를 분류하는 성능이 떨어진다. 또한, 객체 탐지 및 객체 분할 모델은 위치 정보가 포함된 데이터를 학습 데이터로 사용하기 때문에 해당 학습 데이터를 구하는데 많은 시간 및 비용이 소요된다는 문제점이 있다.
따라서, 자동화 설비를 갖춘 시스템에서 제품에 대한 영상 내에 포함된 결함을 분류하고, 분류된 결함의 위치를 추출하는 성능을 높일 수 있는 방안이 요구되고 있다.
한국공개특허 제10-2012-0064581호 (2012.06.19. 공개)
개시되는 실시예들은 객체 정보 추출 장치 및 방법을 제공하기 위한 것이다.
일 실시예에 따른 객체 정보 추출 장치는, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함한다.
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정될 수 있다.
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치할 수 있다.
상기 부분 이미지 획득부는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가질 수 있다.
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
상기 컨피던스 맵 생성부는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다.
상기 객체 정보 획득부는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
상기 객체 정보 획득부는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득할 수 있다.
일 실시예에 따른 객체 정보 추출 방법은, 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 단계, 상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 단계, 객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 단계, 상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 단계 및 상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 단계를 포함한다.
상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정될 수 있다.
상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치할 수 있다.
상기 부분 이미지를 획득하는 단계는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가질 수 있다.
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
상기 컨피던스 맵을 생성하는 단계는, 상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다.
상기 객체 정보를 획득하는 단계는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
상기 객체 정보를 획득하는 단계는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득할 수 있다.
개시되는 실시예들에 따르면, 객체 분류 성능이 높은 영상 분류 모델을 이용하여 영상 내에 포함된 특정 객체의 위치를 추출함으로써 객체 분류 및 객체 위치 추출의 정확도를 높일 수 있고, 위치 정보가 포함된 학습 데이터를 수집하는데 소요되는 시간 및 비용을 절감할 수 있다.
도 1은 일 실시예에 따른 객체 정보 추출 장치의 구성도
도 2는 일 실시예에 따른 패딩 이미지를 예시한 도면
도 3은 일 실시예에 따른 부분 이미지를 추출하는 예를 설명하기 위한 도면
도 4 및 5는 일 실시예에 따른 부분 이미지를 추출하는 다른 예를 설명하기 위한 도면
도 6은 일 실시예에 따른 객체 분류 결과를 획득하는 일 예를 설명하기 위한 도면
도 7은 일 실시예에 따른 객체 분류 결과를 획득하는 다른 예를 설명하기 위한 도면
도 8은 일 실시예에 따른 컨피던스 값을 증가시키는 예를 설명하기 위한 도면
도 9는 일 실시예에 따른 이진화 이미지를 생성하는 예를 설명하기 위한 도면
도 10은 일 실시예에 따른 이진화 이미지를 예시한 도면
도 11은 일 실시예에 따른 객체 정보 추출 방법의 순서도
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 이에 제한되지 않는다.
실시예들을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 또한, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 일 실시예에 따른 객체 정보 추출 장치(100)의 구성도이다.
도 1을 참조하면, 객체 정보 추출 장치(100)는 패딩 이미지 생성부(110), 부분 이미지 획득부(130), 객체 분류 결과 획득부(150), 컨피던스 맵 생성부(170) 및 객체 정보 획득부(190)를 포함한다.
패딩 이미지 생성부(110)는 원본 이미지를 포함하는 패딩(padding) 이미지를 생성한다.
원본 이미지는 이미지 내에 포함된 특정 객체를 분류하기 위해 데이터 정규화를 통해 전처리된 이미지일 수 있다. 예를 들어, 자동차 생산라인에서 카메라와 같은 촬영 수단을 통해 자동차를 촬영한 경우, 원본 이미지는 자동차를 촬영한 이미지에 포함된 특정 객체를 분류하기 위해 전처리된 이미지일 수 있다. 이때, 객체는 제품의 결함을 의미할 수 있다. 예를 들어, 제품이 자동차인 경우, 객체는 자동차의 외부면에 있는 먼지, 흠집, 이물질 등을 포함할 수 있다
패딩 이미지는 원본 이미지를 포함하되 원본 이미지보다 크기가 큰 이미지를 의미한다. 일 실시예에 따르면, 패딩 이미지는 원본 이미지 부분을 제외한 나머지 영역이 임의의 값을 가지는 픽셀들로 구성될 수 있다.
한편, 패딩 이미지에서 원본 이미지 영역을 제외한 나머지 영역의 픽셀들은 서로 동일한 값을 가질 수 있다. 또한, 패딩 이미지에서 원본 이미지 영역은 패딩 이미지의 정중앙에 위치할 수 있으나 실시예에 따라 원본 이미지 영역의 위치를 변경될 수 있다.
도 2는 일 실시예에 따른 패딩 이미지를 예시한 도면이다.
도 2를 참조하면, 원본 이미지(210)는 객체(211) 및 복수의 노이즈(212, 213, 214)를 포함하는 것으로 가정한다.
이때, 패딩 이미지 생성부(110)는 원본 이미지(210)를 정중앙에 위치시키고, 원본 이미지(210)의 외부 영역에 임의의 픽셀 값을 가지는 픽셀들을 추가하여 패딩 이미지(220)를 생성할 수 있다.
다시 도 1을 참조하면, 부분 이미지 획득부(130)는 패딩 이미지에 대한 복수의 부분 이미지를 획득한다. 이때, 부분 이미지는 패딩 이미지 내 일부 영역을 추출한 이미지를 의미할 수 있다. 또한, 부분 이미지는 원본 이미지와 동일한 크기를 가질 수 있으나, 반드시 이에 한정되는 것은 아니며, 실시예에 따라 다양한 크기를 가질 수 있다.
일 실시예에 따르면, 부분 이미지 획득부(130)는 기 설정된 크기를 갖는 윈도우(window)를 패딩 이미지 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
구체적으로, 부분 이미지 획득부(130)는 기 설정된 이동 간격에 따라 이동하는 윈도우의 영역에 포함된 패딩 이미지의 영역을 복사하여 부분 이미지로 추출할 수 있다.
도 3은 일 실시예에 따른 부분 이미지를 추출하는 예를 설명하기 위한 도면이다.
도 3을 참조하면, 부분 이미지 획득부(130)는 기 설정된 크기의 윈도우(310)를 생성한 후 패딩 이미지(220)의 좌측 상단 및 우측 하단을 각각 윈도우(310) 이동의 시작점 및 끝점으로 설정하여 윈도우(310)를 패딩 이미지(220)의 좌측 상단부터 우측 하단까지 화살표 방향을 따라 이동시킬 수 있다. 부분 이미지 획득부(130)는 사용자에 의해 기 설정된 이동 간격만큼 윈도우(310)를 화살표 방향으로 이동시킬 수 있다. 이때, 부분 이미지 획득부(130)는 화살표 방향을 따라 움직이는 윈도우(310) 내에 포함된 영역을 복사하여 패딩 이미지(220)에 대한 부분 이미지(320)를 추출할 수 있다.
한편, 부분 이미지 획득부(130)가 윈도우를 이동시키는 방식은 상술한 예에 한정되는 것은 아니고, 윈도우가 이동하는 방향, 윈도우의 이동 시작점, 끝점 등은 다양한 방식으로 설정될 수 있다.
또한, 윈도우의 이동 간격은 사용자의 설정에 따라 다양한 값을 가질 수 있다. 구체적으로 사용자가 윈도우의 이동 간격을 짧게 설정하는 경우, 객체 정보를 추출하는데 사용되는 패딩 이미지에 대한 복수의 부분 이미지를 많이 획득할 수 있으므로 객체 정보 추출 장치(100)의 객체 정보 추출 정확도를 높일 수 있다. 반대로, 사용자가 윈도우의 이동 간격을 길게 설정하는 경우, 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 소요되는 시간이 줄어들게 되므로 객체 정보 추출 장치(100)의 객체 정보 추출에 소요되는 시간을 줄일 수 있다.
도 4 및 5는 일 실시예에 따른 부분 이미지를 추출하는 다른 예를 설명하기 위한 도면이다.
도 4 및 5를 참조하면, 우선, 부분 이미지 획득부(130)는 크기가 큰 윈도우(410)를 생성한 후 윈도우(410)를 패딩 이미지 내에서 이동시키면서 객체가 있는 후보 영역을 검출할 수 있다. 이때, 부분 이미지 획득부(130)는 윈도우(410)의 이동 간격을 길게 설정하여 후보 영역을 빠르게 검출할 수 있다.
이후, 부분 이미지 획득부(130)는 크기가 작은 윈도우(510)를 생성한 후 생성된 윈도우(510)를 후보 영역(410) 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지(220)에 대한 부분 이미지를 추출할 수 있다. 이때, 부분 이미지 획득부(130)는 윈도우(510)의 이동 간격을 짧게 설정하여 객체의 정확한 위치를 추출할 수 있다.
다시 도 1을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델을 이용하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득한다.
이때, 객체 분류 모델은 사전 수집된 영상을 학습 데이터로 이용하여 영상 내에 포함된 특정 객체를 분류하도록 학습된 딥러닝(Deep learning) 모델일 수 있다.
구체적으로, 객체 분류 결과 획득부(150)는 패딩 이미지에 대한 복수의 부분 이미지를 각각 객체 분류 모델에 입력하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득할 수 있다. 이때, 객체 분류 결과 획득부(150)는 객체 분류 결과로써 부분 이미지에서 객체가 검출되었는지 여부, 부분 이미지에서 검출된 객체에 대한 정보 등을 획득할 수 있다.
도 6은 일 실시예에 따른 객체 분류 결과를 획득하는 일 예를 설명하기 위한 도면이다.
도 6에 도시된 예에서, 부분 이미지 획득부(130)에 의해 획득된 패딩 이미지(220)에 대한 부분 이미지(320)는 객체(211)를 포함하지 않는 것으로 가정한다.
도 6을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(610)을 이용하여 부분 이미지(320) 내 포함된 객체를 분류할 수 있다. 이때, 도시된 예에서는 부분 이미지(320) 내 객체가 포함되어 있지 않으므로, 객체 분류 결과 획득부(150)는 부분 이미지(320)에 대한 객체 분류 결과로서 부분 이미지(320)에서 객체가 검출되지 않았다는 정보를 획득할 수 있다.
도 7은 일 실시예에 따른 객체 분류 결과를 획득하는 다른 예를 설명하기 위한 도면이다.
도 7에 도시된 예에서, 부분 이미지 획득부(130)에 의해 획득된 패딩 이미지(220)에 대한 부분 이미지(710)는 객체(211)를 포함하는 것으로 가정한다.
도 7을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(410)을 이용하여 부분 이미지(710) 내 객체(211)를 분류할 수 있다. 이때, 객체 분류 결과 획득부(150)는 부분 이미지(510)에 대한 객체 분류 결과로서 부분 이미지(510)에서 객체(211)가 검출되었다는 정보를 획득할 수 있다.
다시 도 1을 참조하면, 컨피던스 맵 생성부(170)는 패딩 이미지와 동일한 크기를 가지고, 복수의 부분 이미지 각각에 대한 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성한다.
구체적으로, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과 예를 들어, 부분 이미지에서 객체가 검출되었는지 여부에 기초하여 패딩 이미지를 구성하는 각 픽셀에 대한 컨피던스 값을 표시하여 패딩 이미지에 대응되는 컨피던스 맵을 생성할 수 있다.
일 실시예에 따르면, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과에 기초하여 컨피던스 맵 내에서 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
구체적으로, 컨피던스 맵 생성부(170)는 부분 이미지에 대한 객체 분류 결과 예를 들어, 부분 이미지에서 객체가 검출되었는지 여부에 따라 컨피던스 맵 내에서 해당 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬지 여부를 결정할 수 있다.
예를 들어, 컨피던스 맵 생성부(170)는 복수의 부분 이미지 각각에 대한 객체 분류 결과에 따라 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 컨피던스 맵 내에서 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
도 8은 일 실시예에 따른 컨피던스 값을 증가시키는 예를 설명하기 위한 도면이다.
도 8을 참조하면, 객체 분류 결과 획득부(150)는 객체 분류 모델(610)을 이용하여 패딩 이미지(220)에 대한 부분 이미지(710)에서 객체(211)를 검출한 것으로 가정한다. 이때, 컨피던스 맵 생성부(170)는 컨피던스 맵(810) 내에서 객체(221)가 검출된 부분 이미지(710)에 대응되는 영역(811)의 컨피던스 값을 증가시킬 수 있다.
한편, 도 8에서는 부분 이미지에서 객체가 검출되었을 때 컨피던스 값이 증가하는 수치 값이 1인 것으로 예시하였으나, 반드시 이에 한정되는 것은 아니고, 컨피던스 값의 증가량은 실시예에 따라 다양하게 설정될 수 있다.
다시 도 1을 참조하면, 객체 정보 획득부(190)는 컨피던스 맵에 기초하여 패딩 이미지 내 객체 정보를 획득한다.
이때, 객체 정보는 원본 이미지에 포함된 객체에 대한 정보를 의미한다. 일 실시예에 따르면, 객체 정보는 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함할 수 있다. 예를 들어, 객체 정보는 객체의 크기, 위치 등을 포함할 수 있다.
구체적으로, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값을 이용하여 패딩 이미지 내 객체 정보를 획득할 수 있다.
일 실시예에 따르면, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값에 기초하여 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다. 이때, 이진화 이미지는 컨피던스 값에 기초하여 이미지 내 모든 픽셀 각각이 검은색 및 흰색 중 하나로 표현된 이미지를 의미한다.
예를 들어, 객체 정보 획득부(190)는 컨피던스 맵에 포함된 컨피던스 값을 기 설정된 임계 값과 비교할 수 있다. 이때, 객체 정보 획득부(190)는 비교 결과에 따라 컨피던스 값이 기 설정된 임계 값보다 작은 경우, 이진화 이미지 내에서 해당 컨피던스 값이 포함된 영역에 대응되는 픽셀의 픽셀 값을 0으로 설정할 수 있다. 이와 달리, 객체 정보 획득부(190)는 비교 결과에 따라 컨피던스 값이 기 설정된 임계 값보다 크거나 같은 경우, 이진화 이미지 내에서 해당 컨피던스 값이 표시된 영역에 대응되는 픽셀의 픽셀 값을 255로 설정할 수 있다. 객체 정보 획득부(190)는 상술한 방식에 따라 컨피던스 맵의 모든 영역에 대해 이진화를 수행하여 컨피던스 맵에 대응되는 이진화 이미지를 획득할 수 있다.
도 9는 일 실시예에 따른 이진화 이미지를 생성하는 예를 설명하기 위한 도면이다.
도 9를 참조하면, 이진화 이미지(930)를 생성하기 위해 기 설정된 임계 값이 9인것으로 가정하면, 객체 정보 획득부(190)는 컨피던스 맵(910)에 포함된 컨피던스 값이 9보다 작은지 또는 9보다 크거나 같은지를 판단할 수 있다. 이때, 객체 정보 획득부(190)는 컨피던스 맵(910) 내에서 기 설정된 임계 값과 동일한 컨피던스 값을 가지는 영역(920)에 대응되는 이진화 이미지(930) 내 픽셀을 흰색으로 설정할 수 있다. 또한, 객체 정보 획득부(190)는 컨피던스 맵(910) 내에서 기 설정된 임계 값보다 작은 컨피던스 값을 가지는 영역들 각각에 대응되는 이진화 이미지(930) 내 픽셀들을 검은색으로 설정함으로써 컨피던스 맵(910)에 대응되는 이진화 이미지(930)를 생성할 수 있다.
도 10은 일 실시예에 따른 이진화 이미지를 예시한 도면이다.
도 10을 참조하면, 패딩 이미지(220)가 좌측에 도시된 도면인 것으로 가정하는 경우, 패딩 이미지(220)에 대응되는 컨피던스 맵에 대한 이진화 이미지(1010)는 우측에 도시된 도면과 같이 생성될 수 있다.
다시 도 1을 참조하면, 객체 정보 획득부(190)는 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 패딩 이미지 내 객체 정보를 획득할 수 있다.
예를 들어, 객체 정보 획득부(190)는 연결 성분 분석(Connected Component Analysis)을 이용하여 이진화 이미지로부터 패딩 이미지 내 객체 정보를 획득할 수 있다. 이때, 연결 성분 분석은 이진화 이미지에 하나 이상의 객체가 포함되는 경우, 동일한 객체에 포함된 픽셀들에 고유한 번호를 레이블링(labeling)하여 하나 이상의 객체 각각에 대한 객체 정보를 획득하는 영상 처리 알고리즘을 의미할 수 있다.
도 11은 일 실시예에 따른 객체 정보 추출 방법에 대한 순서도이다.
도 11에 도시된 방법은 예를 들어, 도 1에 도시된 객체 정보 추출 장치(100)에 의해 수행될 수 있다.
도 11을 참조하면, 객체 정보 추출 장치(100)는 원본 이미지를 포함하는 패딩 이미지를 생성한다(1110).
이후, 객체 정보 추출 장치(100)는 패딩 이미지에 대한 복수의 부분 이미지를 획득한다(1120).
이때, 객체 정보 추출 장치(100)는 기 설정된 크기를 갖는 윈도우를 패딩 이미지 내에서 이동시키면서 윈도우 내에 포함된 영역을 패딩 이미지에 대한 부분 이미지로 추출할 수 있다.
이후, 객체 정보 추출 장치(100)는 객체 분류 모델을 이용하여 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득한다(1130).
이후, 객체 정보 추출 장치(100)는 패딩 이미지와 동일한 크기를 가지고, 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵을 생성한다(1140).
이때, 객체 정보 추출 장치(100)는 객체 분류 결과에 기초하여 컨피던스 맵 내에서 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정할 수 있다.
예를 들어, 객체 정보 추출 장치(100)는 객체 분류 결과에 따라 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 컨피던스 맵 내에서 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시킬 수 있다.
이후, 객체 정보 추출 장치(100)는 컨피던스 맵에 기초하여 패딩 이미지 내 객체 정보를 획득한다(1150).
이때, 객체 정보 추출 장치(100)는 컨피던스 맵에 포함된 컨피던스 값에 기초하여 컨피던스 맵에 대응되는 이진화 이미지를 생성할 수 있다.
또한, 객체 정보 추출 장치(100)는 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 객체 정보를 획득할 수 있다.
한편, 도 11에 도시된 순서도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 예를 들어, 도 1에 도시된 패딩 이미지 생성부(110), 부분 이미지 획득부(130), 객체 분류 결과 획득부(150), 컨피던스 맵 생성부(170) 및 객체 정보 획득부(190)와 같이 객체 정보 추출 장치(100)에 포함되는 하나 이상의 컴포넌트일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
[표 1]
Figure 112018106881287-pat00001
표 1은 객체 정보 추출 장치(100)와 종래의 모델 간의 성능을 비교한 표이다.
우선, 종래의 기술인 영상 분류(Image Classification) 모델은 객체 탐지 기능 즉, 객체의 위치(location) 및 분할(segmentation) 정보를 획득할 수 없다. 또한, 영상 분류 모델은 영상 전체에 대한 분류만 가능하고, 복합된 객체의 경우 분류가 불가능하다. 반면, 객체 정보 추출 장치(100)는 객체 탐지를 위한 추가 학습 없이 객체의 위치 및 분할 정보를 획득할 수 있다. 또한, 객체 정보 추출 장치(100)는 복합된 객체의 경우에도 각 객체마다 분류가 가능하다.
다음으로, 종래의 기술인 객체 탐지(Object Detection) 모델은 학습하기 위해서 학습 이미지(training image)에 포함된 객체에 대한 정보가 추가적으로 필요하다. 구체적으로, 객체 탐지 모델은 사용자가 직접 학습 이미지에 주석을 추가하여 객체에 대한 정보를 입력해야 하기 때문에 학습이 복잡하고, 학습하는데 소요되는 시간이 길다. 반면, 객체 정보 추출 장치(100)는 기 학습된 영상 분류 모델을 재학습시킬 필요가 없고, 별도로 데이터에 주석을 추가하는 작업 없이 기존에 모델에 입력된 데이터를 이용하여 객체 탐지 기능을 수행할 수 있다.
따라서, 객체 정보 추출 장치(100)는 종래의 모델들에 비하여 모델의 구조가 간단하고, 모델 구현성이 용이하며, 객체 분류 및 객체 탐지 성능이 우수하다.
이상에서는 실시예들을 중심으로 기술적 특징들을 설명하였다. 하지만, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한고, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 객체 정보 추출 장치
110: 패딩 이미지 생성부
130: 부분 이미지 획득부
150: 객체 분류 결과 획득부
170: 컨피던스 맵 생성부
190: 객체 정보 획득부
210: 원본 이미지
211: 객체
212, 213, 214: 노이즈
220: 패딩 이미지
310, 410, 510: 윈도우
320, 710: 부분 이미지
610: 객체 분류 모델
810, 910: 컨피던스 맵
930, 1010: 이진화 이미지

Claims (20)

  1. 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 패딩 이미지 생성부;
    상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 부분 이미지 획득부;
    객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 객체 분류 결과 획득부;
    상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 컨피던스 맵 생성부; 및
    상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 객체 정보 획득부를 포함하며,
    상기 컨피던스 맵 생성부는,
    상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정하며,
    상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시키는 객체 정보 추출 장치.
  2. 청구항 1에 있어서,
    상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정되는 객체 정보 추출 장치.
  3. 청구항 2에 있어서,
    상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치하는 객체 정보 추출 장치.
  4. 청구항 1에 있어서,
    상기 부분 이미지 획득부는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출하는 객체 정보 추출 장치.
  5. 청구항 4에 있어서,
    상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가지는 객체 정보 추출 장치.
  6. 삭제
  7. 삭제
  8. 청구항 1에 있어서,
    상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함하는 객체 정보 추출 장치.
  9. 청구항 1에 있어서,
    상기 객체 정보 획득부는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성하는 객체 정보 추출 장치.
  10. 청구항 9에 있어서,
    상기 객체 정보 획득부는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득하는 객체 정보 추출 장치.
  11. 원본 이미지를 포함하는 패딩(padding) 이미지를 생성하는 단계;
    상기 패딩 이미지에 대한 복수의 부분 이미지를 획득하는 단계;
    객체 분류 모델을 이용하여 상기 복수의 부분 이미지 각각에 대한 객체 분류 결과를 획득하는 단계;
    상기 패딩 이미지와 동일한 크기를 가지고, 상기 객체 분류 결과에 기초한 컨피던스 값을 포함하는 컨피던스 맵(confidence map)을 생성하는 단계; 및
    상기 컨피던스 맵에 기초하여 상기 패딩 이미지 내 객체 정보를 획득하는 단계를 포함하며,
    상기 컨피던스 맵을 생성하는 단계는,
    상기 객체 분류 결과에 기초하여 상기 컨피던스 맵 내에서 상기 복수의 부분 이미지 각각에 대응되는 영역의 컨피던스 값을 결정하며,
    상기 객체 분류 결과에 따라 상기 복수의 부분 이미지 중 특정 부분 이미지에서 객체가 검출된 경우, 상기 컨피던스 맵 내에서 상기 특정 부분 이미지에 대응되는 영역의 컨피던스 값을 증가시키는 객체 정보 추출 방법.
  12. 청구항 11에 있어서,
    상기 패딩 이미지는, 상기 원본 이미지를 제외한 영역이 임의의 픽셀 값으로 설정되는 객체 정보 추출 방법.
  13. 청구항 12에 있어서,
    상기 패딩 이미지는, 상기 원본 이미지가 정중앙에 위치하는 객체 정보 추출 방법.
  14. 청구항 11에 있어서,
    상기 부분 이미지를 획득하는 단계는, 기 설정된 크기를 갖는 윈도우(window)를 상기 패딩 이미지 내에서 이동시키면서 상기 윈도우 내에 포함된 영역을 상기 패딩 이미지에 대한 부분 이미지로 추출하는 객체 정보 추출 방법.
  15. 청구항 14에 있어서,
    상기 윈도우는, 상기 원본 이미지와 동일한 크기를 가지는 객체 정보 추출 방법.
  16. 삭제
  17. 삭제
  18. 청구항 11에 있어서,
    상기 객체 정보는, 상기 패딩 이미지 내에 포함된 하나 이상의 객체 각각에 대한 크기 및 위치 정보를 포함하는 객체 정보 추출 방법.
  19. 청구항 11에 있어서,
    상기 객체 정보를 획득하는 단계는, 상기 컨피던스 맵에 포함된 컨피던스 값에 기초하여 상기 컨피던스 맵에 대응되는 이진화 이미지를 생성하는 객체 정보 추출 방법.
  20. 청구항 19에 있어서,
    상기 객체 정보를 획득하는 단계는, 상기 이진화 이미지 내에서 픽셀 사이의 연결 성분을 분석하여 상기 객체 정보를 획득하는 객체 정보 추출 방법.
KR1020180130146A 2018-10-29 2018-10-29 객체 정보 추출 장치 및 방법 KR102653177B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180130146A KR102653177B1 (ko) 2018-10-29 2018-10-29 객체 정보 추출 장치 및 방법
US16/665,575 US11200694B2 (en) 2018-10-29 2019-10-28 Apparatus and method for extracting object information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180130146A KR102653177B1 (ko) 2018-10-29 2018-10-29 객체 정보 추출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200048256A KR20200048256A (ko) 2020-05-08
KR102653177B1 true KR102653177B1 (ko) 2024-04-01

Family

ID=70327564

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180130146A KR102653177B1 (ko) 2018-10-29 2018-10-29 객체 정보 추출 장치 및 방법

Country Status (2)

Country Link
US (1) US11200694B2 (ko)
KR (1) KR102653177B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210065353A1 (en) * 2019-08-30 2021-03-04 Nectar Exchange LLC Automated collectible card grading system
US11748928B2 (en) * 2020-11-10 2023-09-05 Adobe Inc. Face anonymization in digital images
KR20220114904A (ko) 2021-02-09 2022-08-17 동서대학교 산학협력단 웹서버 기반으로 객체 추출 서비스 방법
KR20230009718A (ko) * 2021-07-09 2023-01-17 (주)유아이엠디 검사영역 지정에 기반한 혈구 디텍션 및 클래시피케이션 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6578017B1 (en) * 1999-02-26 2003-06-10 Information Decision Technologies, Llc Method to aid object detection in images by incorporating contextual information
US6833845B2 (en) * 2000-10-27 2004-12-21 Matsushita Electric Industrial Co., Ltd. Image object content generation device and padding device
US6819790B2 (en) * 2002-04-12 2004-11-16 The University Of Chicago Massive training artificial neural network (MTANN) for detecting abnormalities in medical images
US20050157939A1 (en) * 2004-01-16 2005-07-21 Mark Arsenault Processes, products and systems for enhancing images of blood vessels
US7486802B2 (en) * 2004-06-07 2009-02-03 Ford Global Technologies Llc Adaptive template object classification system with a template generator
US7697755B2 (en) * 2004-09-29 2010-04-13 Drvision Technologies Llc Method for robust analysis of biological activity in microscopy images
US7474775B2 (en) * 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
KR20120064581A (ko) 2010-12-09 2012-06-19 한국전자통신연구원 영상 분류 방법 및 이를 위한 장치
US9025836B2 (en) * 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9165369B1 (en) * 2013-03-14 2015-10-20 Hrl Laboratories, Llc Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes
EP3563265B1 (en) * 2016-12-30 2021-06-02 DeepMap Inc. High definition map updates
US10924747B2 (en) * 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11256977B2 (en) * 2017-12-29 2022-02-22 Facebook, Inc. Lowering hardware for neural networks
CN110313015A (zh) * 2018-05-31 2019-10-08 深圳市大疆创新科技有限公司 数据处理方法和处理电路
KR101939349B1 (ko) * 2018-07-09 2019-04-11 장현민 기계학습모델을 이용하여 자동차용 어라운드 뷰 영상을 제공하는 방법
CN109325918B (zh) * 2018-07-26 2022-05-13 京东方科技集团股份有限公司 一种图像处理的方法、装置及计算机存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Rui Zhao, "Saliency Detection by Multi-Context Deep Learning", Proceedings of the IEEE conference on computer vision and pattern recognition (2015.06.08-12.)*

Also Published As

Publication number Publication date
KR20200048256A (ko) 2020-05-08
US20200134858A1 (en) 2020-04-30
US11200694B2 (en) 2021-12-14

Similar Documents

Publication Publication Date Title
KR102653177B1 (ko) 객체 정보 추출 장치 및 방법
EP3882808B1 (en) Face detection model training method and apparatus, and face key point detection method and apparatus
CN107545262B (zh) 一种在自然场景图像中检测文本的方法及装置
CN107358596B (zh) 一种基于图像的车辆定损方法、装置、电子设备及***
US10902056B2 (en) Method and apparatus for processing image
JP4516778B2 (ja) データ処理システム
JP6446971B2 (ja) データ処理装置、データ処理方法、及び、コンピュータ・プログラム
JP5775225B2 (ja) マルチレイヤ連結成分をヒストグラムと共に用いるテキスト検出
CN110059596B (zh) 一种图像识别方法、装置、介质和电子设备
JP2008217347A (ja) ナンバープレート認識装置、その制御方法、コンピュータプログラム
US11275955B2 (en) Lane line processing method and device
US9082181B2 (en) Image processing method and apparatus
KR20110124223A (ko) 얼굴들을 상관시킴으로써 디지털 이미지들을 구조화하기
US9025889B2 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
TW201447811A (zh) 區域分割方法及檢查裝置
CN111368944B (zh) 翻拍图像、证件照识别、模型训练方法、装置及电子设备
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
JP2017120503A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2013080389A (ja) 消失点推定方法、消失点推定装置及びコンピュータプログラム
KR102230559B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
WO2022019018A1 (en) Segmentation of continuous dynamic scans
KR20210031444A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
JP6731883B2 (ja) 参照画像選択装置、方法、及びプログラム
Beleznai et al. Multi-resolution binary shape tree for efficient 2D clustering
CN114973299B (zh) 建筑图纸构件识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant