KR20230095350A - 이미지 세그멘테이션 결과의 검증 방법 및 그 장치 - Google Patents

이미지 세그멘테이션 결과의 검증 방법 및 그 장치 Download PDF

Info

Publication number
KR20230095350A
KR20230095350A KR1020210184737A KR20210184737A KR20230095350A KR 20230095350 A KR20230095350 A KR 20230095350A KR 1020210184737 A KR1020210184737 A KR 1020210184737A KR 20210184737 A KR20210184737 A KR 20210184737A KR 20230095350 A KR20230095350 A KR 20230095350A
Authority
KR
South Korea
Prior art keywords
reliability
target image
region
image
anchor point
Prior art date
Application number
KR1020210184737A
Other languages
English (en)
Inventor
이명준
Original Assignee
주식회사 렛서
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 렛서 filed Critical 주식회사 렛서
Priority to KR1020210184737A priority Critical patent/KR20230095350A/ko
Publication of KR20230095350A publication Critical patent/KR20230095350A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

이미지 세그멘테이션(segmentation) 결과의 검증 방법 및 그 방법을 수행하는 장치가 제공된다. 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 상기 대상 이미지의 세그멘테이션(segmentation) 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하는 단계 - 상기 앵커 포인트는, 상기 대상 이미지에 대응되는 그라운드 트루(ground truth)의 클래스를 가리키는 기준 벡터임 - 및 상기 신뢰도를 표시하는 단계를 포함할 수 있다.

Description

이미지 세그멘테이션 결과의 검증 방법 및 그 장치{IMAGE SEGMENTATION RESULT'S VERIFICATION METHOD AND APPARATUS THEREOF}
본 개시는 이미지 세그멘테이션(segmentation) 결과의 검증 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 이미지 세그멘테이션 모듈을 통해 출력되는 대량의 이미지 세그멘테이션 결과를 쉽게 검증하는 방법 및 그 장치에 관한 것이다.
최근 인공 지능 기술의 발전에 따라 헬스 케어 분야에 인공 지능 기술이 적극적으로 도입되고 있으며, 이러한 인공 지능 기술의 도입에 따라, 의료 이미지 분석을 위한 학습 데이터의 수요 또한 폭발적으로 증가하고 있는 추세이다.
이러한 의료 이미지 분석을 위한 적절한 학습 데이터를 마련하기 위해서는, 이미지 내의 객체의 위치 및 객체의 모양 등을 고려하여, 이미지를 분할해 이미지의 각 픽셀에 레이블(label)을 부여하는 이미지 세그멘테이션(segmentation)이 선행되어야 한다.
이러한 이미지 세그멘테이션을 위해, 사용자는 이미지마다 일일이 객체를 지정하는 등의 작업을 수행해야 하므로, 상당한 시간과 노력이 소요되었다. 특히, 의료 이미지의 경우 이미지 세그멘테이션을 위한 전문적인 지식이 별도로 요구되며, 그 난이도 또한 어려웠다.
이에 사용자의 개입을 최소화하여 동적으로 이미지를 세그멘테이션하는 기술(e.g., 인공 지능 기반의 자동 세그멘테이션 기술)들이 개발되고 있으며, 특히, 상술한 인공 지능 기술의 발전과 함께 이미지 세그멘테이션 기술 또한 발전하고 있다.
그러나, 이러한 이미지 세그멘테이션 기술들은 세그멘테이션 결과를 검증할 수 없었으며, 이미지 분석을 위한 적절한 학습 데이터를 마련하기 위해, 사용자는 세그멘테이션 결과를 일일이 확인해야만 하는 번거로움이 있었다.
한국등록특허 제10-2315574호 (2016.06.13 공개)
본 개시의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 이미지 분석을 위한 학습 데이터를 구축하기 위한 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 대량의 이미지 셋에 수행된 이미지 세그멘테이션(segmentation)의 결과를 쉽게 검증하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 세그멘테이션 결과의 검증에 소요되는 비용을 경감시킬 수 있는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 세그멘테이션 결과의 신뢰도를 사용자가 한 눈에 인식할 수 있도록 시각화하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 다양한 이미지 세그멘테이션 모듈에 적용 가능한 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 세그멘테이션 결과가 부정확할 것으로 예측되는 입력 이미지를 선별하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 세그멘테이션 결과가 부정확할 것으로 예측되는 입력 이미지의 영역을 시각화하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 상기 대상 이미지의 세그멘테이션(segmentation) 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하는 단계 - 상기 앵커 포인트는, 상기 대상 이미지에 대응되는 그라운드 트루(ground truth)의 클래스를 가리키는 기준 벡터임 - 및 상기 신뢰도를 표시하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 신뢰도를 산출하는 단계는, 상기 대상 이미지의 영역별로 산출된 복수의 영역 신뢰도의 스칼라 합에 기초하여, 상기 신뢰도를 산출하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 신뢰도를 표시하는 단계는, 상기 신뢰도를 시각화한 신뢰도 맵(reliability map)을 생성하는 단계 및 상기 신뢰도 맵과 상기 대상 이미지를 중첩하여 표시하는 단계를 포함할 수 있다. 여기서, 상기 신뢰도를 산출하는 단계는, 상기 대상 이미지의 제1 영역에 대응되는 제1 특징 벡터와 상기 제1 특징 벡터에 대응되는 제1 앵커 포인트의 스칼라 거리에 기초하여, 상기 제1 영역에 대응되는 제1 영역 신뢰도를 산출하는 단계를 포함하고, 상기 신뢰도 맵을 생성하는 단계는, 상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역에, 상기 제1 영역 신뢰도에 대응되는 시각화 정보를 생성하는 단계를 포함할 수 있다. 이때, 상기 신뢰도 맵과 상기 대상 이미지를 중첩하여 표시하는 단계는, 상기 제1 영역과 상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역을 중첩하여 표시하는 단계를 포함할 수 있다. 또한 이때, 상기 시각화 정보를 생성하는 단계는, 상기 제1 영역 신뢰도에 대응되는 제1 색상이 상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역에 표시되도록, 상기 시각화 정보를 생성하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 신뢰도를 산출하는 단계는, 인공 신경망이 구비된 세그멘테이션 검증 모듈에 상기 대상 이미지를 입력하여, 상기 신뢰도를 산출하는 단계를 포함할 수 있다. 여기서, 상기 세그멘테이션 검증 모듈은, 정상 학습 데이터로부터 추출된 제1 벡터와 상기 앵커 포인트의 거리가 감소되고, 비정상 학습 데이터로부터 추출된 제2 벡터와 상기 앵커 포인트의 거리가 증가되도록, 학습하는 모듈이거나 정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 감소되고, 비정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 증가되도록, 학습하는 모듈일 수 있다.
본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 장치는, 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 상기 대상 이미지의 세그멘테이션(segmentation) 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하는 인스트럭션(instruction) - 상기 앵커 포인트는, 상기 대상 이미지에 대응되는 그라운드 트루(ground truth)의 클래스를 가리키는 기준 벡터임 - 및 상기 신뢰도를 표시하는 인스트럭션을 포함할 수 있다.
도 1은 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션(segmentation) 결과의 검증 장치가 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 방법을 설명하기 위한 예시적인 순서도이다.
도 3은 도 2를 참조하여 설명된 신뢰도 산출 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 4는 도 2를 참조하여 설명된 신뢰도 출력 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 5는 본 개시의 몇몇 실시예에서 참조될 수 있는 대상 이미지를 설명하기 위한 예시적인 도면이다.
도 6은 본 개시의 몇몇 실시예에서 참조될 수 있는 그라운드 트루(ground truth)를 설명하기 위한 예시적인 도면이다.
도 7은 본 개시의 몇몇 실시예에서 참조될 수 있는 세그멘테이션 결과를 설명하기 위한 예시적인 도면이다.
도 8 및 도 9는 본 개시의 몇몇 실시예에서 참조될 수 있는 신뢰도 맵(reliability map)을 설명하기 위한 예시적인 도면이다.
도 10은 본 개시의 몇몇 실시예에서 참조될 수 있는 세그멘테이션 검증 모듈의 학습을 설명하기 위한 예시적인 도면이다.
도 11은 본 개시의 다양한 실시예에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.
각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.
도 1은 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션(segmentation) 결과의 검증 장치(100)가 적용될 수 있는 예시적인 환경을 도시한다. 도 1은 1개의 사용자 단말(200)이 이미지 세그멘테이션 결과의 검증 장치(100)와 네트워크를 통해 연결된 일례를 도시하고 있으나, 이는 이해의 편의를 제공하기 위한 것일 뿐이고, 사용자 단말(200)의 개수는 얼마든지 달라질 수 있다. 한편, 도 1은 본 개시의 목적을 달성하기 위한 바람직한 실시예를 도시하고 있을 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있다.
이하, 도 1에 도시된 각 구성 요소에 대해 보다 구체적으로 설명하기로 하며, 이미지 세그멘테이션 결과의 검증 장치(100)는, 설명의 편의를 위해 경우에 따라서 간략하게, 검증 장치(100)로 약칭하기로 한다.
우선, 검증 장치(100)는 이미지 세그멘테이션 장치(미도시)로부터, 입력 이미지(i.e., 대상 이미지)의 세그멘테이션과 관련된 다양한 정보를 획득할 수 있다. 예를 들어, 검증 장치(100)는 이미지 세그멘테이션 장치(미도시)로부터 입력 이미지, 입력 이미지에 수행된 몇몇 프로세스의 결과, 입력 이미지에 대응되는 그라운드 트루(ground truth) 및 입력 이미지에 대한 세그멘테이션 결과 등을 획득할 수 있다. 몇몇 실시예에서, 전술한 이미지 세그멘테이션 장치(미도시)는, 검증 장치(100)와 동일한 컴퓨팅 장치 내의 서로 다른 로직(logic, e.g., 이미지 세그멘테이션 모듈, 세그멘테이션 결과 검증 모듈)으로 구현될 수 있다.
또한, 검증 장치(100)는 이미지 세그멘테이션 장치(미도시)로부터 획득된 다양한 정보(e.g., 입력 이미지, 입력 이미지에 수행된 몇몇 프로세스의 결과, 입력 이미지에 대응되는 그라운드 트루, 입력 이미지에 대한 세그멘테이션 결과)에 기초하여, 이미지 세그멘테이션 장치(미도시)가 수행한 입력 이미지에 대한 세그멘테이션 결과를 검증할 수 있다. 특히, 검증 장치(100)는 세그멘테이션 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하거나 전술한 신뢰도를 시각화한 신뢰도 맵(reliability map)을 생성할 수 있다. 여기서, 신뢰도 및 신뢰도 맵이 후술될 사용자 단말(200)에 표시되도록, 검증 장치(100)는 신뢰도 및 신뢰도 맵을 사용자 단말(200)에 출력할 수 있다. 중복된 설명의 배제를 위하여, 검증 장치(100)가 수행하는 다양한 동작들에 관해서는 추후 도 2 이하의 도면을 참조하여 설명하기로 한다.
이러한 검증 장치(100)는, 하나 이상의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 검증 장치(100)의 모든 기능은 단일 컴퓨팅 장치에서 구현될 수 있다. 다른 예로써, 검증 장치(100)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 여기서, 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 다만, 검증 장치(100)가 대량의 이미지 셋의 세그멘테이션 결과를 검증하고, 검증 결과(e.g., 신뢰도, 신뢰도 맵)를 사용자 단말(200)에 출력해야 되는 환경이라면, 검증 장치(100)는 고성능의 서버급 컴퓨팅 장치로 구현되는 것이 바람직할 수 있다. 이러한 컴퓨팅 장치의 일례에 대해서는 추후 도 11을 참조하여 설명하기로 한다.
또한, 검증 장치(100)는, 추후 명세서의 기재를 통해 구체화될 몇몇 동작들을 실행하기 위해서, 인공 신경망 구조를 갖는 모듈을 포함할 수 있으며, 이러한 모듈은 공지된 모든 기술이 적용되어 검증 장치(100)가 수행하는 각각의 동작들이 최적의 형태로 실행될 수 있도록 구현될 수 있음을 유의해야 한다.
다음으로, 사용자 단말(200)은 검증 장치(100)가 전송하는 다양한 정보로 구현된 사용자 인터페이스를 실행할 수 있다. 여기서, 사용자 단말(200)은 검증 장치(100)가 전송하는 시각적 정보를 디스플레이하기 위한 디스플레이 화면을 포함할 수 있다. 이러한 사용자 단말(200)은 검증 장치(100)와 상호 작용하기 위한 웹 브라우저(Web browser) 또는 전용 애플리케이션이 설치될 수 있으며, 예를 들어, 사용자 단말(200)은 데스크탑(desktop), 워크스테이션(workstation), 랩탑(laptop), 태블릿(tablet) 및 스마트폰(smart phone) 중 어느 하나가 될 수 있으나, 이에 한정되지 않고, 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 이러한 컴퓨팅 기능이 구비된 모든 종류의 장치의 일례에 대해서는 추후 도 19를 참조하여 설명하기로 한다.
도 1과 관련하여, 몇몇 실시예에서, 검증 장치(100)와 사용자 단말(200)은, 네트워크를 통해 통신할 수 있다. 이러한 네트워크는 근거리 통신망(Local Area Network, LAN), 광역 통신망(Wide Area Network, WAN), 이동 통신망(mobile radio communication network) 및 Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
지금까지 도 1을 참조하여 본 개시의 몇몇 실시예에 따른 검증 장치(100)가 적용될 수 있는 예시적인 환경에 대하여 설명하였다. 이하에서는, 본 개시의 다양한 실시예에 따른 방법들에 대하여 상세하게 설명하도록 한다.
후술될 방법들의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 방법들의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 방법들에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅 장치에 의하여 실행될 수도 있을 것이나, 방법의 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수도 있다.
이하에서는, 방법들의 각 단계가 도 1에 예시된 검증 장치(100)에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 다만, 설명의 편의상, 방법들에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 검증 장치(100)를 기준으로 방법들의 각 단계가 설명된다고 하더라도, 검증 장치(100)에서 수행되는 각 단계에 대응되는 사용자 단말(200)의 동작들이 본 개시의 범위에서 배제되는 것이 아님을 유의해야 한다.
도 2를 참조하면 단계 S100에서, 대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 대상 이미지의 세그멘테이션 결과의 신뢰성을 나타내는 신뢰도가 산출될 수 있다.
단계 S100에 관해 보다 구체적으로 설명하면, 단계 S100에서 대상 이미지로부터 특징 벡터가 추출될 수 있다. 여기서, 도 5에 도시된 대상 이미지(10)로부터 특징 벡터를 추출하기 위해, 예를 들어, U-Net, DeepLab V3+ 등과 같은, 이미지 세그멘테이션을 위한 FCN(Fully Convolution Network)의 인코더(encoder)에 대상 이미지(10)를 입력한 결과가 참조될 수 있다. 다만, 상술한 이미지 세그멘테이션 모듈(e.g, U-Net으로 구현된 이미지 세그멘테이션 모듈, DeepLab V3+로 구현된 이미지 세그멘테이션 모듈)에 본 개시의 적용 범위가 한정되는 것은 아니고, 공지된 다양한 이미지 세그멘테이션 모듈에 본 개시가 적용될 수 있음을 유의해야 한다.
보다 구체적으로, 대상 이미지(10)에 몇몇 횟수의 ReLU(Rectified Linear Unit) 함수가 적용될 수 있고, 몇몇 횟수의 맥스 풀링(max pooling)이 적용될 수 있고, 몇몇 횟수의 콘볼루션(convolution) 연산이 적용될 수 있고, 몇몇 횟수의 배치 정규화(batch normalization) 연산이 적용될 수 있다. 즉, 전술한 일련의 동작들에 따라, 대상 이미지(10)로부터 특징 벡터가 추출될 수 있으며, 이러한 특징 벡터는 대상 이미지(10)의 컨텍스트(context)를 수치화한 벡터로 이해될 수 있다. 후술되겠지만, 이러한 특징 벡터는 대상 이미지(10)의 특정 영역별로 추출되어, 하나의 대상 이미지(10)에서 복수의 특징 벡터가 추출될 수 있다.
몇몇 실시예에서, 대상 이미지로부터 특징 벡터를 추출하는 동작은, 도 1을 참조하여 설명된 이미지 세그멘테이션 장치(미도시)에서 수행될 수 있다. 여기서, 이미지 세그멘테이션 장치(미도시)로부터 특징 벡터가 로드(load)될 수 있다.
또한, 단계 S100에서 앵커 포인트가 그라운드 트루(i.e., 클래스가 사전에 정의된 실제 값)로부터 추출될 수 있다. 여기서, 앵커 포인트는 대상 이미지에 대응되는 그라운드 트루에 정의된 클래스를 가리키는 기준 벡터일 수 있다. 즉, 앵커 포인트는 그라운드 트루에 정의된 클래스의 개수마다 적어도 하나씩 생성된 기준 벡터일 수 있다. 예를 들어, 도 6에 도시된 그라운드 트루(20)는 4개의 클래스로 세그멘테이션되어 있으므로, 4개의 클래스 각각에 대응되도록 적어도 4개의 앵커 포인트가 추출될 수 있다. 이러한 앵커 포인트는, 후술될 세그멘테이션 검증 모듈의 학습이 용이하도록 사전에 결정될 수 있으며, 그라운드 트루에 정의된 클래스를 가리키는 기준이 되는 벡터이기만 하면, 어떠한 벡터라도 앵커 포인트로 결정될 수 있음을 유의해야 한다.
또한, 단계 S100에서 특징 벡터와 앵커 포인트의 거리에 기초하여, 신뢰도가 산출될 수 있다. 여기서, 신뢰도는 대상 이미지의 세그멘테이션 결과의 신뢰성을 나타내는 수치로써, 벡터 스페이스(vector space) 상의 특징 벡터와 앵커 포인트의 거리에 기반하여 산출될 수 있다. 이때, 특징 벡터는, 전술한 바와 같이, 이미지 세그멘테이션을 위한 FCN(Fully Convolution Network)의 인코더(encoder)에 대상 이미지를 입력한 결과를 참조하여 추출된 것이므로, 이러한 특징 벡터를 이용함으로써 세그멘테이션 결과의 신뢰성을 나타내는 신뢰도가 산출될 수 있다. 또한, 신뢰도는 대상 이미지의 세그멘테이션 결과의 신뢰성을 나타내는 수치이므로, 대상 이미지가 세그멘테이션될 이미지 세그멘테이션 모듈에 적합한 입력 이미지인지 판단할 수 있는 수치로도 이해될 수 있다. 즉, 신뢰도가 상대적으로 낮은 대상 이미지는 이미지 세그멘테이션 모듈에 부적합한 이미지(e.g., 이미지 세그멘테이션 모듈의 학습 데이터와 무관한 이미지, 이미지 세그멘테이션 모듈이 추론을 어려워할 이미지)라고 판정될 수 있고, 신뢰도가 상대적으로 높은 대상 이미지는 이미지 세그멘테이션 모듈에 적합한 이미지(e.g., 이미지 세그멘테이션 모듈의 학습 데이터와 관련된 이미지, 이미지 세그멘테이션 모듈이 추론을 잘할 수 있는 이미지)라고 판정될 수 있다.
구체적으로, 특징 벡터와 앵커 포인트의 거리가 상대적으로 큰 값을 가진다면, 특징 벡터에 대응되는 대상 이미지의 영역의 세그멘테이션 결과와 그라운드 트루와 차이가 상대적으로 커 신뢰도가 낮다고 이해될 수 있고, 특징 벡터와 앵커 포인트의 거리가 상대적으로 작은 값을 가진다면, 특징 벡터에 대응되는 대상 이미지의 영역의 세그멘테이션 결과와 그라운드 트루와 차이가 상대적으로 작아 신뢰도가 높다고 이해될 수 있다. 즉, 특징 벡터와 앵커 포인트의 거리의 역수에 기반하여, 대상 이미지의 세그멘테이션 결과의 신뢰도가 산출될 수 있다.
단계 S100에 대한 보다 구체적인 설명을 위해 도 3을 참조하여 설명하기로 한다.
도 3을 참조하면 단계 S110에서, 대상 이미지의 제n 영역에 대응되는 제n 특징 벡터와 제n 특징 벡터에 대응되는 제m 앵커 포인트의 스칼라 거리에 기초하여, 제n 영역의 영역 신뢰도가 산출될 수 있다. 여기서, n과 m은 자연수로써, n은 대상 이미지의 영역 개수 및 영역에 대응되는 특징 벡터의 개수에 대응되는 값으로 이해될 수 있고, m은 앵커 포인트의 개수에 대응되는 값으로 이해될 수 있다. 즉, 대상 이미지의 각각의 영역의 세그멘테이션 결과를 나타내는 영역 신뢰도가 산출될 수 있으며, 전술한 바와 같이, 특징 벡터와 앵커 포인트의 거리(e.g., 스칼라 거리)에 기반하여 영역 신뢰도가 산출될 수 있다.
다음으로 단계 S120에서, 복수의 영역 신뢰도의 스칼라 합에 기초하여 신뢰도가 산출될 수 있다. 여기서, 영역 신뢰도는 대상 이미지의 영역에 대응되는 값이므로, 대상 이미지에 대한 모든 영역 신뢰도를 합산함으로써 대상 이미지의 세그멘테이션 결과에 대한 신뢰도가 산출될 수 있다.
단계 S100과 관련하여, 몇몇 실시예에서, 신뢰도를 산출하는 단계는, 인공 신경망이 구비된 세그멘테이션 검증 모듈에 대상 이미지를 입력하여, 신뢰도를 산출하는 단계를 포함할 수 있다.
여기서, 세그멘테이션 검증 모듈은, 정상 학습 데이터로부터 추출된 제1 벡터와 앵커 포인트의 거리가 감소되고, 비정상 학습 데이터(i.e., outlier)로부터 추출된 제2 벡터와 앵커 포인트의 거리가 증가되도록 학습하는 모듈일 수 있다. 예를 들어, 도 10에 도시된 바와 같이, 정상 학습 데이터로부터 추출된 제1 벡터(60)와 'Class A'의 앵커 포인트(50)의 거리가 감소되고, 비정상 학습 데이터로부터 추출된 제2 벡터(70a, 70b)와 'Class A'의 앵커 포인트(50)의 거리가 증가되도록, 세그멘테이션 검증 모듈이 학습될 수 있다. 이러한 세그멘테이션 검증 모듈의 학습을 위해, 예를 들어, 손실 함수(loss function)와 최적화(optimizer)와 같은, 다양한 인공 지능 기반 기술이 본 개시에 적용될 수 있으며, 정상 학습 데이터와 비정상 학습 데이터를 구별할 수 있도록 학습하는 모든 기술이 본 개시에 적용될 수 있음을 유의해야 한다.
또한 여기서, 세그멘테이션 검증 모듈은, 정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 감소되고, 비정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 증가되도록 학습하는 모듈일 수 있다. 여기서, 복수의 스칼라 거리의 합이란, 학습 데이터의 영역 각각에 대응되는 특징 벡터와 앵커 포인트의 스칼라 거리들의 합을 의미할 수 있다. 즉, 학습 데이터의 특정 영역에 대응되는 벡터의 관점이 아닌, 학습 데이터 전체 영역에 대응되는 벡터들의 관점에서, 정상 학습 데이터의 경우 스칼라 거리의 합이 감소되고, 비정상 학습 데이터의 경우 스칼라 거리의 합이 증가되도록 세그멘테이션 검증 모듈이 학습될 수 있다.
다시 도 2를 참조하여 설명하기로 한다.
도 2를 참조하면 단계 S200에서, 신뢰도가 출력될 수 있다. 여기서, 출력된 신뢰도는 도 1을 참조하여 설명된 사용자 단말에 수신되어, 후술될 다양한 방식으로 사용자 단말의 화면에 표시될 수 있다.
단계 S200과 관련된 보다 구체적인 설명을 위해 도 4를 참조하여 설명하기로 한다.
도 4를 참조하면 단계 S210에서, 신뢰도를 시각화한 신뢰도 맵이 생성될 수 있다. 여기서, 신뢰도 맵은 대상 이미지의 영역별로 산출된 영역 신뢰도가 시각화되도록 생성될 수 있으며, 예를 들어, 대상 이미지의 제1 영역에 대응되는 신뢰도 맵의 영역에 제1 영역 신뢰도에 대응되는 시각화 정보를 생성할 수 있고, 대상 이미지의 제2 영역에 대응되는 신뢰도 맵의 영역에 제2 영역 신뢰도에 대응되는 시각화 정보를 생성할 수 있다. 즉, 신뢰도 맵의 영역마다 영역 신뢰도가 시각화되도록 생성될 수 있다.
단계 S210과 관련하여, 몇몇 실시예에서, 시각화 정보를 생성하는 단계는, 제1 영역 신뢰도에 대응되는 제1 색상이 제1 영역에 대응되는 신뢰도 맵의 영역에 표시되도록, 시각화 정보를 생성하는 단계를 포함할 수 있다. 즉, 본 실시예에 따르면 영역 신뢰도의 수치마다 대응되는 색상이 사전에 결정될 수 있으며, 영역 신뢰도의 수치에 대응되는 색상이 신뢰도 맵에 표시될 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 신뢰도 맵(40)이 생성될 수 있으며 생성된 신뢰도 맵(40)의 파란색 영역은 영역 신뢰도 값이 낮은 영역으로 이해될 수 있고, 붉은색 영역은 영역 신뢰도 값이 높은 영역으로 이해될 수 있다.
다시 도 4를 참조하면 단계 S220에서, 신뢰도 맵과 대상 이미지가 중첩되어 출력될 수 있다. 몇몇 실시예에서, 신뢰도 맵과 대상 이미지를 중첩하여 표시하는 단계는, 대상 이미지의 제1 영역과 제1 영역에 대응되는 신뢰도 맵의 영역을 중첩하여 표시하는 단계를 포함할 수 있다.
여기서, 중첩되어 출력된 신뢰도 맵과 대상 이미지는 전술한 바와 같이, 사용자 단말에 수신되어 사용자 단말의 화면에 표시될 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 신뢰도 맵(40)과 대상 이미지가 중첩되어 표시될 수 있으며, 신뢰도 맵(40)과 대상 이미지가 중첩되어 표시됨으로써, 영역 신뢰도가 높은 영역 또는 낮은 영역에 대한 시각화된 정보를 사용자가 직관적으로 인식할 수 있다.
신뢰도 맵에 대해 보다 구체적으로 설명하면, 도 8에 도시된 신뢰도 맵(40)은, 도 5에 도시된 대상 이미지(10)에 대한 세그멘테이션 결과(도 7에 도시된 세그멘테이션 결과(30) 참조)의 신뢰성을 나타내는 신뢰도 맵으로 이해될 수 있으며, 도 6에 도시된 그라운드 트루(20)와 도 7에 도시된 세그멘테이션 결과(30)를 비교하면, 세그멘테이션이 잘 수행된 영역을 기준으로 영역 신뢰도가 높게 산출되어 붉은색 영역으로 표시되고 있음을 확인할 수 있다.
이외에도 도 9에 도시된 바와 같이, 다양한 대상 이미지(10)로부터 신뢰도 맵(40)이 생성되어 사용자 단말에 표시될 수 있으며, 사용자는 표시된 신뢰도 맵(40)을 확인함으로써, 이미지 세그멘테이션 결과를 시각화된 정보를 통해 손쉽게 검증할 수 있다.
지금까지 도 2 내지 도 10을 참조하여 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 방법에 대하여 설명하였다. 전술한 방법에 따르면, 이미지 분석을 위한 학습 데이터를 구축하기 위한 방법으로써, 이미지 세그멘테이션 결과의 검증에 소요되는 시간과 노력을 효과적으로 경감시킬 수 있다. 특히, 이미지 세그멘테이션 결과의 신뢰성을 나타내는 수치(i.e., 신뢰도, 영역 신뢰도) 또는 시각화 정보(i.e., 신뢰도 맵)를 사용자 단말에 표시함으로써, 사용자는 이미지 세그멘테이션 결과를 손쉽게 검증할 수 있다.
이하, 도 11을 참조하여 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 장치 및 사용자 단말을 구현할 수 있는 예시적인 컴퓨팅 장치(1500)를 보다 구체적으로 설명하기로 한다.
컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1550), 통신 인터페이스(1570), 프로세서(1510)에 의하여 수행되는 컴퓨터 프로그램(1591)을 로드(load)하는 메모리(1530)와, 컴퓨터 프로그램(1591)을 저장하는 스토리지(1590)를 포함할 수 있다. 다만, 도 11에는 본 개시의 실시예와 관련 있는 구성 요소들 만이 도시되어 있다. 따라서, 본 개시가 속한 기술 분야의 통상의 기술자라면 도 11에 도시된 구성 요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.
메모리(1530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1530)는 본 개시의 실시예들에 따른 방법을 실행하기 위하여 스토리지(1590)로부터 하나 이상의 프로그램(1591)을 로드 할 수 있다. 메모리(1530)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.
버스(1550)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공한다. 버스(1550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(1570)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1570)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.
몇몇 실시예들에 따르면, 통신 인터페이스(1570)는 생략될 수도 있다.
스토리지(1590)는 상기 하나 이상의 프로그램(1591)과 각종 데이터를 비임시적으로 저장할 수 있다.
스토리지(1590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(1591)은 메모리(1530)에 로드 될 때 프로세서(1510)로 하여금 본 개시의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션(instruction)들을 포함할 수 있다. 즉, 프로세서(1510)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.
위와 같은 경우, 컴퓨팅 장치(1500)를 통해 본 개시의 몇몇 실시예에 따른 이미지 세그멘테이션 결과의 검증 장치가 구현되거나 사용자 단말이 구현될 수 있다.
지금까지 도 1 내지 도 11을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 이러한 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 이러한 컴퓨터로 읽을 수 있는 기록 매체에 기록된 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 다른 컴퓨팅 장치에서 사용될 수 있다.
지금까지 도 1 내지 도 11을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 명세서의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
또한, 도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티 태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 컴퓨팅 장치에 의해 수행되는 방법에 있어서,
    대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 상기 대상 이미지의 세그멘테이션(segmentation) 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하는 단계 - 상기 앵커 포인트는, 상기 대상 이미지에 대응되는 그라운드 트루(ground truth)의 클래스를 가리키는 기준 벡터임 - ; 및
    상기 신뢰도를 표시하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  2. 제1항에 있어서,
    상기 신뢰도를 산출하는 단계는,
    상기 대상 이미지의 영역별로 산출된 복수의 영역 신뢰도의 스칼라 합에 기초하여, 상기 신뢰도를 산출하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  3. 제1항에 있어서,
    상기 신뢰도를 표시하는 단계는,
    상기 신뢰도를 시각화한 신뢰도 맵(reliability map)을 생성하는 단계; 및
    상기 신뢰도 맵과 상기 대상 이미지를 중첩하여 표시하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  4. 제3항에 있어서,
    상기 신뢰도를 산출하는 단계는,
    상기 대상 이미지의 제1 영역에 대응되는 제1 특징 벡터와 상기 제1 특징 벡터에 대응되는 제1 앵커 포인트의 스칼라 거리에 기초하여, 상기 제1 영역에 대응되는 제1 영역 신뢰도를 산출하는 단계를 포함하고,
    상기 신뢰도 맵을 생성하는 단계는,
    상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역에, 상기 제1 영역 신뢰도에 대응되는 시각화 정보를 생성하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  5. 제4항에 있어서,
    상기 신뢰도 맵과 상기 대상 이미지를 중첩하여 표시하는 단계는,
    상기 제1 영역과 상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역을 중첩하여 표시하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  6. 제4항에 있어서,
    상기 시각화 정보를 생성하는 단계는,
    상기 제1 영역 신뢰도에 대응되는 제1 색상이 상기 제1 영역에 대응되는 상기 신뢰도 맵의 영역에 표시되도록, 상기 시각화 정보를 생성하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  7. 제1항에 있어서,
    상기 신뢰도를 산출하는 단계는,
    인공 신경망이 구비된 세그멘테이션 검증 모듈에 상기 대상 이미지를 입력하여, 상기 신뢰도를 산출하는 단계를 포함하는,
    이미지 세그멘테이션 결과의 검증 방법.
  8. 제7항에 있어서,
    상기 세그멘테이션 검증 모듈은,
    정상 학습 데이터로부터 추출된 제1 벡터와 상기 앵커 포인트의 거리가 감소되고, 비정상 학습 데이터로부터 추출된 제2 벡터와 상기 앵커 포인트의 거리가 증가되도록, 학습하는 모듈인,
    이미지 세그멘테이션 결과의 검증 방법.
  9. 제7항에 있어서,
    상기 세그멘테이션 검증 모듈은,
    정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 감소되고, 비정상 학습 데이터의 영역별로 산출된 복수의 스칼라 거리의 합이 증가되도록, 학습하는 모듈인,
    이미지 세그멘테이션 결과의 검증 방법.
  10. 프로세서;
    네트워크 인터페이스;
    메모리; 및
    상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
    상기 컴퓨터 프로그램은,
    대상 이미지로부터 추출된 특징 벡터와 앵커 포인트(anchor point)의 거리에 기초하여, 상기 대상 이미지의 세그멘테이션(segmentation) 결과의 신뢰성(reliability)을 나타내는 신뢰도를 산출하는 인스트럭션(instruction) - 상기 앵커 포인트는, 상기 대상 이미지에 대응되는 그라운드 트루(ground truth)의 클래스를 가리키는 기준 벡터임 - ; 및
    상기 신뢰도를 표시하는 인스트럭션을 포함하는,
    이미지 세그멘테이션 결과의 검증 장치.
KR1020210184737A 2021-12-22 2021-12-22 이미지 세그멘테이션 결과의 검증 방법 및 그 장치 KR20230095350A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210184737A KR20230095350A (ko) 2021-12-22 2021-12-22 이미지 세그멘테이션 결과의 검증 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210184737A KR20230095350A (ko) 2021-12-22 2021-12-22 이미지 세그멘테이션 결과의 검증 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR20230095350A true KR20230095350A (ko) 2023-06-29

Family

ID=86946272

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210184737A KR20230095350A (ko) 2021-12-22 2021-12-22 이미지 세그멘테이션 결과의 검증 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR20230095350A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315574B1 (ko) 2014-12-03 2021-10-20 삼성전자주식회사 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315574B1 (ko) 2014-12-03 2021-10-20 삼성전자주식회사 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치

Similar Documents

Publication Publication Date Title
CN111192356B (zh) 感兴趣区域的显示方法、装置、设备和存储介质
US11074479B2 (en) Learning of detection model using loss function
US9842417B2 (en) Computing device and method for simplifying point cloud of object
CN110991649A (zh) 深度学习模型搭建方法、装置、设备和存储介质
CN111753983B (zh) 神经网络模型的定制化方法、***、设备和存储介质
US11521118B2 (en) Method and apparatus for generating training data for VQA system, and medium
EP4002216A1 (en) Method for recommending object, neural network, computer program product and computer-readable storage medium
KR102204956B1 (ko) 시맨틱 세그먼테이션 방법 및 그 장치
WO2020097461A1 (en) Convolutional neural networks with reduced attention overlap
US20240203087A1 (en) Method, computing device, and computer-readable medium for providing guide information on contour information of object included in image in crowdsourcing
CN117315758A (zh) 面部表情的检测方法、装置、电子设备及存储介质
KR20230095350A (ko) 이미지 세그멘테이션 결과의 검증 방법 및 그 장치
CN115359203B (zh) 一种三维高精度地图生成方法、***及云平台
CN116303100A (zh) 一种基于大数据平台的文件集成测试方法及***
US10839570B2 (en) Graph display method, electronic device, and recording medium for displaying modified expression in different ways in response to determining whether condition regarding modified expression is satisfied
CN112749707A (zh) 利用神经网络进行目标分割的方法、设备和介质
KR20230095336A (ko) 인터렉티브 이미지 세그멘테이션 방법 및 그 장치
US20220388519A1 (en) Method, computing device and computer-readable medium for dividing and providing work to workers in crowdsourcing
US20240233420A9 (en) Annotation device and annotation method
CN105183490A (zh) 将离线处理逻辑迁移至实时处理框架的方法和装置
CN112965699B (zh) 前端页面生成方法、装置、计算机***和可读存储介质
KR101961296B1 (ko) 이미지 파일의 파일명 생성 방법, 장치 및 컴퓨터-판독가능 기록매체
KR20180042733A (ko) 영상 처리 장치 및 방법
CN117635626A (zh) 具有方向框监督的遥感图像分割方法、装置、设备和介质
CN116360759A (zh) 一种人工智能算法的可视化***和方法