KR102295805B1 - 학습 데이터 관리 방법 - Google Patents

학습 데이터 관리 방법 Download PDF

Info

Publication number
KR102295805B1
KR102295805B1 KR1020190067175A KR20190067175A KR102295805B1 KR 102295805 B1 KR102295805 B1 KR 102295805B1 KR 1020190067175 A KR1020190067175 A KR 1020190067175A KR 20190067175 A KR20190067175 A KR 20190067175A KR 102295805 B1 KR102295805 B1 KR 102295805B1
Authority
KR
South Korea
Prior art keywords
data
degree
computer
uncertainty
similarity
Prior art date
Application number
KR1020190067175A
Other languages
English (en)
Other versions
KR20200116831A (ko
Inventor
윤성호
심상우
임용섭
김기현
김병찬
최정우
Original Assignee
주식회사 마키나락스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마키나락스 filed Critical 주식회사 마키나락스
Priority to KR1020190067175A priority Critical patent/KR102295805B1/ko
Priority to US16/832,694 priority patent/US11562167B2/en
Publication of KR20200116831A publication Critical patent/KR20200116831A/ko
Priority to KR1020210112012A priority patent/KR20210107584A/ko
Application granted granted Critical
Publication of KR102295805B1 publication Critical patent/KR102295805B1/ko
Priority to US18/069,637 priority patent/US20230127656A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 개시의 일 실시예에 따라, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 컴퓨터 장치의 하나 이상의 프로세서에서 실행되는 경우 데이터 처리를 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 동작; 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 동작; 및 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작을 포함할 수 있다.

Description

학습 데이터 관리 방법{METHOD FOR MANAGING TRAINING DATA}
본 개시는 인공지능 기술 분야에 관한 것으로서, 보다 구체적으로 학습 데이터 관리에 관한 것이다.
일시적으로 또는 데이터 베이스에 저장되어 영구적으로 사용할 수 있는 센서 데이터가 축적됨에 따라, 수 많은 산업 장비의 모니터링 데이터의 자동화 처리에 대한 연구가 진행되고 있다. 데이터의 상태 판단 방법을 구현하기 위해 인공 신경망 네트워크(artificial neural network)를 이용한 인공지능(artificial intelligence) 기술에 대한 연구가 진행되고 있다.
인공 신경망 네트워크를 활용한 딥러닝(deep learning) 모델은 복잡한 비선형 또는 동적 패턴을 효과적으로 학습할 수 있는 방법을 제공하지만, 처리하고자 하는 데이터가 변화하는 경우, 모델의 업데이트에 대한 기술적 과제가 존재하였다.
대한민국특허 공개 문헌 KR1020180055708은 인공 지능을 활용한 이미지 처리 방법을 개시한다.
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 인공지능을 활용한 데이터의 처리 방법을 제공하기 위한 것이다.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 컴퓨터 장치의 하나 이상의 프로세서에서 실행되는 경우 데이터 처리를 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 동작; 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 동작; 및 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작을 포함할 수 있다.
대안적으로, 상기 데이터 세트에 포함된 하나 이상의 데이터를 분류 모델에 입력시켜 해공간에 매핑시키는 동작을 더 포함할 수 있다.
대안적으로, 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작 이후에, 추가적으로 라벨링 된 데이터에 적어도 부분적으로 기초하여 분류 모델을 업데이트 하는 동작을 더 포함할 수 있다.
대안적으로, 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작은, 상기 불확실성 정도가 높고 그리고 상기 유사성 정도가 낮은 데이터를 선택적으로 라벨링 하는 동작을 포함할 수 있다.
대안적으로, 상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는, 상기 하나 이상의 데이터 각각을 분류 모델을 이용하여 분류한 결과에 적어도 부분적으로 기초하여 결정될 수 있다.
대안적으로, 상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는, 상기 분류 모델에 상기 하나 이상의 데이터 각각을 입력시켜 상기 하나 이상의 데이터 각각을 해공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 해공간에서의 위치와 상기 분류 모델의 분류 기준과의 거리에 기초하여 결정될 수 있다.
대안적으로, 상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는, 하나 이상의 데이터 각각을 데이터 공간에 매핑시키고, 상기 하나 이상의 데이터 각각의 데이터 공간에서의 위치와 분류 기준과의 거리에 기초하여 결정될 수 있다.
대안적으로, 상기 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도는, 분류 모델에 상기 데이터 서브세트에 포함된 하나 이상의 데이터 각각을 입력시켜 상기 하나 이상의 데이터 각각을 해공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 해공간 상에서의 위치에 기초하여 결정될 수 있다.
대안적으로, 상기 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도는, 상기 데이터 서브세트에 포함된 하나 이상의 데이터 각각을 데이터 공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 데이터 공간 상에서의 위치에 기초하여 결정될 수 있다.
대안적으로, 상기 데이터 서브세트는 상기 데이터 세트에 포함된 하나 이상의 데이터 중에 선택된 유니크 페어일 수 있다.
대안적으로, 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작은, 상호 연관된 상기 불확실성 정도와 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하는 동작을 포함할 수 있다.
대안적으로, 상기 불확실성 정도와 상기 유사성 정도의 상호 연관은, 상기 불확실성 정도 및 상기 유사성 정도 각각에 상대적 가중치를 연산함으로써 결정될 수 있다.
대안적으로, 상기 데이터는 제조 환경에서 제조물을 제조하는 동안 획득된 센서 데이터를 포함할 수 있다.
본 개시의 다른 일 실시예에 따라, 컴퓨터 장치의 하나 이상의 프로세서에서 실행되는 데이터 처리 방법이 개시된다. 상기 방법은, 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 단계; 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 단계; 및 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 단계를 포함할 수 있다.
본 개시의 다른 일 실시예에 따라, 데이터 처리를 위한 컴퓨터 장치가 개시된다. 상기 컴퓨터 장치는, 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에서 실행가능한 컴퓨터 프로그램을 저장하는 메모리를 포함하고, 상기 하나 이상의 프로세서는, 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하고, 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하고, 그리고 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링할 수 있다.
본 개시는 인공지능을 활용한 데이터의 처리 방법을 제공할 수 있다.
도 1 은 본 개시의 일 실시예의 데이터 처리 방법을 수행하기 위한 컴퓨터 장치의 블록 구성도이다.
도 2 는 본 개시의 일 실시예의 네트워크 함수를 나타낸 개략도이다.
도 3 은 본 개시의 일 실시예의 데이터 처리 방법의 데이터 처리를 나타낸 순서도이다.
도 4 는 본 개시의 일 실시예에 따른 데이터 처리 방법의 처리과정을 나타낸 개략도이다.
도 5 는 본 개시의 일 실시예에 따른 데이터 처리 방법의 처리과정을 나타낸 개략도이다.
도 6 는 본 개시의 일 실시예에 따른 데이터 처리 방법의 처리과정을 나타낸 개략도이다.
도 7 는 본 개시의 일 실시예에 따른 데이터 처리 방법의 처리과정을 나타낸 개략도이다.
도 8 은 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨터 장치에서 실행되는 애플리케이션 및 컴퓨터 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예 들로 한정되는 것이 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
본 개시에서 네트워크 함수와 인공 신경망, 네트워크 함수 및 뉴럴 네트워크(neural network)는 상호교환가능하게 사용될 수 있다.
본 개시에서 라벨링 기준과 분류 기준은 상호교환가능하게 사용될 수 있다.
본 명세서는 2019년 4월 2일에 출원된 미국 가출원 US62/828346을 기초로 우선권을 주장하며, 미국 가출원 US62/828346에 포함된 모든 내용은 본 명세서에서 참조로서 통합된다.
2018년 7월 11일에 출원된 한국 특허 출원 10-2018-0080482 및 2019년 4월 30일에 출원된 한국 특허 출원 10-2019-0050477에 포함된 모든 내용은 본 명세서에서 참조로서 통합된다.
도 1 은 본 개시의 일 실시예의 데이터 처리 방법을 수행하기 위한 컴퓨터 장치의 블록 구성도이다.
도 1 에 도시된 컴퓨터 장치(100)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 본 개시의 일 실시예에서 컴퓨터 장치(100)는 컴퓨터 장치(100)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성 들 중 일부만이 컴퓨터 장치(100)를 구성할 수도 있다.
컴퓨터 장치(100)는 프로세서(110), 메모리(130), 네트워크부(150)를 포함할 수 있다.
프로세서(110)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨터 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(110)는 메모리(130)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 데이터 처리 방법을 수행할 수 있다. 본 개시의 일실시예에 따라 프로세서(110)는 뉴럴 네트워크 모델의 학습을 위한 연산을 수행할 수 있다. 프로세서(110)는 딥러닝(DN: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처(feature) 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(110)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨터 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨터 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
본 개시의 일 실시예에서 컴퓨터 장치(100)는 CPU, GPGPU, 및 TPU 중 적어도 하나를 이용하여 네트워크 함수를 분산하여 처리할 수 있다. 또한 본 개시의 일 실시예에서 컴퓨터 장치(100)는 다른 컴퓨터 장치와 함께 네트워크 함수를 분산하여 처리할 수도 있다. 컴퓨터 장치(100)의 네트워크 함수 분산 처리에 관한 구체적인 내용에 대한 설명은 본 출원에서 전체가 참조로서 통합되는 미국 특허 출원 US15/161080(출원일 2016.05.20) 및 US15/217475(출원일 2016.07.22)에서 구체적으로 논의된다.
프로세서(110)는 학습 대상이 되는 하나 이상의 데이터를 포함하는 데이터 세트를 획득할 수 있다. 본 개시의 일 실시예에서 뉴럴 네트워크 모델을 이용하여 처리되는 데이터는 산업현장에서 획득되는 모든 종류의 데이터를 포함할 수 있다. 예를 들어, 제품의 생산 공정에서 제품의 생산을 위한 디바이스의 동작 파라미터, 디바이스의 동작에 의하여 획득된 센서 데이터 등을 포함할 수 있다. 예를 들어, 특정 공정에서 장비의 온도 설정, 레이저를 사용하는 공정의 경우 레이저의 파장 등이 본 개시에서 처리되는 데이터의 종류에 포함될 수 있다. 예를 들어, 처리되는 데이터는 MES(management execution system)으로부터의 로트(lot) 장비 히스토리 데이터, 장비 인터페이스 데이터 소스로부터의 데이터, 프로세싱 툴(tool) 레시피들, 프로세싱 툴 테스트 데이터, 프로브 테스트 데이터, 전기 테스트 데이터, 결합 측정 데이터, 진단 데이터, 원격 진단 데이터, 후처리 데이터 등을 포함할 수 있으며 본 개시는 이에 제한되지 않는다. 보다 구체적인 예시로, 반도체 팹(fab)에서 획득되는 로트 별로 12만여개의 항목을 포함하는 진행중(work-in-progress) 정보, 로(raw) 프로세싱 툴 데이터, 장비 인터페이스 정보, 공정 계측 정보(process metrology information)(예를 들어, 로트 별로 1000여개의 항목을 포함함), 수율 관련 엔지니어가 접근할 수 있는 결함 정보, 동작 테스트 정보, 소트 정보(datalog 및 bitmap를 포함함) 등을 포함할 수 있으나, 본 개시는 이에 제한되지 않는다. 전술한 데이터의 종류에 관한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 본 개시의 일 실시예에서 컴퓨터 장치(100)는 수집된 데이터를 전처리할 수 있다. 컴퓨터 장치(100)는 수집된 데이터 중 결측 값을 보충할 수 있다. 컴퓨터 장치(100)는 예를 들어, 결측 값을 중간값 또는 평균값으로 보충하거나, 결측 값이 다수 존재하는 열을 삭제할 수도 있다 . 또한, 예를 들어, 컴퓨터 장치(100)는 행렬 완성(matrix completion)을 위해 컴퓨터 장치(100)에 의한 데이터 전처리에 관리자의 전문 분야 기술(subject matter expertise)이 활용될 수 있다. 예를 들어, 컴퓨터 장치(100)는 수집된 데이터에서 경계, 한계를 완전히 벗어난 값들(예를 들어, 센서 등의 오동작으로 추정되는 값 등)을 제거할 수 있다. 또한 컴퓨터 장치(100)는 데이터가 특성을 유지하면서 스케일을 유사하게 가지도록 하기 위하여 데이터의 값을 조정할 수도 있다. 컴퓨터 장치(100)는 예를 들어, 데이터의 열 단위 표준화를 적용할 수도 있다. 컴퓨터 장치(100)는 데이터에서 뉴럴 네트워크 모델의 처리와 무관한 열을 제거하여 프로세싱을 간략하게 할 수도 있다. 본 개시의 일 실시예에서 컴퓨터 장치(100)는 분류 모델의 생성을 위한 뉴럴 네트워크 모델의 학습과 능동 학습의 용이성을 위하여 적절한 입력 데이터 전처리 방법을 수행할 수 있다. 입력 데이터의 종류, 예시, 전처리, 변환 등에 관한 구체적인 예시에 대한 설명은 본 출원에서 전체가 참조로서 되는 미국 특허 출원 US10/194920(2002.07.12 출원)에서 구체적으로 논의된다.
본 개시의 일 실시예의 입력 데이터는 전술한 바와 같이 산업현장에서 획득되는 모든 종류의 데이터를 포함할 수 있다. 예를 들어, 제품의 생산 공정에서 제품의 생산을 위한 디바이스의 동작 파라미터, 디바이스의 동작에 의하여 획득된 센서 데이터 등을 포함할 수 있다. 하나의 입력 데이터는 하나의 제조 장비에서 하나의 제조 레시피를 사용하여 제조물을 제조하는 동안 획득된 데이터를 포함할 수 있다. 제조물을 제조하는 동안 획득되는 데이터는 센서 데이터를 포함할 수 있다. 즉, 전체 입력 데이터를 포함하는 입력 데이터 세트는 하나 이상의 제조 장비에서 하나 이상의 제조 레시피를 사용하여 제조물을 제조하는 동안 획득된 데이터를 포함할 수 있으나(즉, 여러 제조 장비와 여러 제조 레시피에 대한 데이터가 혼재되어 있을 수 있어, 복수의 정상 상태를 가질 수 있음), 각각의 입력 데이터는 각각 하나의 제조 장비에서 하나의 제조 레시피에 의한 제조물의 생산에서 획득된 데이터로서 하나의 정상 상태를 가질 수 있다.
본 개시의 일 실시예에서, 제조 장비는 산업 현장에서 제조물을 생산하기 위한 임의의 제조 장비를 포함할 수 있으며 예를 들어, 반도체 제조 장비를 포함할 수 있으나 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에서, 제조 레시피는 산업 현장에서 제조물을 생산하기 위한 방법으로 구성될 수 있으며, 보다 구체적으로 제조 장비를 제어하기 위한 데이터를 포함할 수 있다. 본 개시의 일 실시예에서, 제조 레시피는 예를 들어, 제조 장비에 로드된 반도체 제조 레시피를 포함할 수 있으나 본 개시는 이에 제한되지 않는다.
메모리(130)는 본 개시의 일 실시예에 따른 데이터 처리 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(110)에 의하여 판독되어 구동될 수 있다.
네트워크부(150)는 본 개시의 일 실시예에 따른 데이터 처리 방법을 수행하기 위한 데이터 등을 다른 컴퓨터 장치, 제조 장치, 서버 등과 송수신할 수 있다. 네트워크부(150)는 복수의 컴퓨터 장치 사이의 통신을 가능하게 하여 뉴럴 네트워크 모델을 사용한 데이터 처리를 분산 처리할 수 있도록 할 수 있다.
프로세서(110)는 학습 대상이 되는 하나 이상의 데이터를 포함하는 데이터 세트를 획득할 수 있다. 전술한 바와 같이, 본 개시의 일 실시예에서 데이터는 산업 현장에서 획득되는 임의의 종류의 데이터를 포함할 수 있으며, 프로세서(110)는 다른 컴퓨터 장치, 제조 장비 등으로부터 데이터를 획득할 수 있다. 획득된 하나 이상의 데이터는 데이터 세트를 구성할 수 있으며, 데이터 세트는 뉴럴 네트워크 모델의 학습의 1 에폭(epoch)의 연산에 사용되는 데이터의 집합일 수 있다. 데이터 세트는 라벨링 된 데이터(labeled data) 및 라벨링 되지 않은 데이터(unlabeled data)를 포함할 수 있다. 라벨링 되지 않은 데이터는 본 개시의 일 실시예의 데이터 처리 방법에 의하여 라벨링 될 수 있으며, 본 개시의 일 실시예의 데이터 처리 방법은 라벨링 되지 않은 데이터를 라벨링 함으로써, 데이터 세트에 포함된 라벨링된 데이터의 비율을 높여, 분류 모델의 성능을 향상시킬 수 있다. 즉, 최초의 데이터 세트는 일부의 데이터 만이 라벨링 되어 있을 수 있으나, 본 개시의 일 실시예의 데이터 처리 방법에 의하여 라벨링 되지 않는 데이터들이 추가적으로 라벨링될 수 있다.
데이터 서브세트는 데이터 세트의 서브세트로서, 하나 이상의 데이터를 포함할 수 있으며, 데이터 서브세트는 데이터를 사전결정된 기준으로 선택하여 구성될 수 있다.
프로세서(110)는 데이터 세트에 포함된 하나 이상의 데이터를 분류 모델에 입력시켜 각각의 데이터를 해공간에 매핑시킬 수 있다. 분류 모델은 데이터를 분류하기 위한 뉴럴 네트워크 모델로서, 데이터 세트를 이용한 뉴럴 네트워크 모델의 학습에 의하여 결정된 하나 이상의 분류 기준에 따라서, 데이터 세트에 포함된 각각의 데이터를 분류할 수 있다. 분류 모델은 예를 들어, SVM(support vector machine) 등을 포함할 수 있으나 본 개시는 이에 제한되지 않으며, 데이터를 분류할 수 있는 기능을 가진 임의의 뉴럴 네트워크 모델로 구성될 수 있다. 분류 모델은 데이터 세트에 포함된 라벨링된 데이터를 이용하여 분류 기준이 학습된 모델일 수 있다. 본 개시의 일 실시예에서, 분류 기준은 데이터를 분류하기 위한 임의의 기준일 수 있다. 본 개시의 일 실시예에서, 분류 기준은 분류 모델의 분류 기준(예를 들어, 해공간에 위치)일 수도 있으며, 데이터 공간에서 데이터를 분류하기 위한 기준일 수도 있다. 본 개시의 일 실시예에서, 데이터 세트에는 라벨링된 데이터와 라벨링 되지 않은 데이터가 포함될 수 있으며, 최초의 분류 모델(initial classification model)은 최초의 라벨링된 데이터를 이용하여 학습된 모델일 수 있다. 최초의 라벨링된 데이터는 임의로 선택된 임의의 수의 데이터 일 수 있다. 즉, 프로세서(110)는 라벨링 되지 않은 데이터 만을 포함한 데이터 세트를 획득한 경우, 데이터 세트에서 임의의 수의 데이터를 임의로 선택하여, 라벨링 할 수 있다. 여기서 최초의 임의의 선택된 데이터의 라벨링은 예를 들어, 사용자의 입력에 기초하여 수행될 수 있다.
분류 모델은 데이터 세트에서 라벨링 되지 않은 데이터가 추가적으로 라벨링 되는 경우, 이를 이용하여 재 학습될 수 있으며, 재 학습을 통해 분류 성능이 개선되며 분류 기준이 변경될 수 있다. 프로세서(110)는 사전결정된 기준에 기초하여 라벨링 되지 않은 데이터 중 적어도 일부를 선택할 수 있고, 선택된 라벨링 되지 않은 데이터를 추가적으로 라벨링 할 수 있다. 프로세서(110)에 의하여 사전결정된 기준에 기초하여 선택된 라벨링 되지 않은 데이터의 라벨링은 프로세서(110)에서 사용자 입력 없이 수행되거나, 사용자 입력에 기초하여 수행될 수도 있다.
분류 모델은 입력된 데이터에서 피처(feature)를 추출할 수 있으며, 피처는 입력 데이터의 특징을 나타내는 벡터 표현일 수 있다. 분류 모델에 입력된 데이터는 해공간에 벡터 형태로 매핑될 수 있다. 본 개시에서 해공간은 입력 데이터에 대한 임의의 처리가 수행된 표현에 데이터가 매핑될 수 있는 공간을 포함할 수 있으며, 예를 들어, 분류 모델에 의하여 처리된 데이터가 매핑될 수 있는 공간 또는 입력 데이터의 차원 감소 표현 또는 벡터 표현이 매핑될 수 있는 공간을 포함할 수 있다. 본 개시에서 데이터 공간은 입력 데이터가 매핑될 수 있는 공간을 포함할 수 있다.
프로세서(110)는 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정할 수 있다. 불확실성 정도는 데이터의 분류에 대한 불확실성 정도로서, 해당 데이터를 분류 기준에 대하여 얼마나 명확하게 분류할 수 있는지에 대한 척도를 포함할 수 있다.
하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는 하나 이상의 데이터 각각을 분류 모델을 이용하여 분류한 결과에 기초하여 결정될 수 있다. 프로세서(110)는 분류 모델에 하나 이상의 데이터 각각을 입력시켜 하나 이상의 데이터 각각을 해공간에 매핑시키고, 하나 이상의 데이터 각각의 해공간에서의 위치와 분류 모델의 분류 기준과의 거리에 기초하여 라벨링 기준에 대한 불확실성 정도를 결정할 수 있다. 프로세서(110)는 데이터의 해공간 상에서의 위치와 해공간 상에서의 분류 기준과의 거리에 기초하여 해당 데이터의 라벨링 기준에 대한 불확실성의 정도를 결정할 수 있다.
본 개시의 다른 일 실시예에서, 데이터 각각에 대한 불확실성 정도는 데이터 공간에서 분류 기준과 해당 데이터의 위치와의 거리에 기초하여 결정될 수도 있다. 데이터는 그 자체로 어떠한 특징을 포함할 수 있으며, 데이터 자체로 분류될 수도 있다. 데이터 자체를 분류하기 위한 분류 기준이 있을 수 있으며, 데이터는 데이터 공간에서 분류 기준과 해당 데이터의 거리에 기초하여, 분류 기준에 대한 불확실성 정도가 결정될 수도 있다.
도 4 를 참조하여 설명하면, 도 4 는 본 개시의 일 실시예의 분류 모델에 의하여 데이터 세트의 하나 이상의 데이터 각각이 해공간에 매핑된 것을 나타낸 개념도이다. 도 4 는 편의상 2차원 해공간을 도시하였으나, 본 개시의 일 실시예에서 해공간의 차원은 임의의 차원일 수 있다. 도 4 를 참조하면 해공간(300)상에, 각각의 데이터(301)들이 매핑되어 있으며, 각각의 데이터는 라벨링 된 데이터(330, 350) 일 수도 있고, 라벨링 되지 않은 데이터(310)일 수 있다.
프로세서(110)는 각각의 데이터에 대하여 라벨링 기준에 대한 불확실성 정도를 결정할 수 있다. 불확실성 정도는 데이터 세트에 포함된 데이터 각각을 분류 모델을 이용하여 분류한 결과에 적어도 부분적으로 기초하여 결정될 수 있다. 도 5 를 참조하여 설명하면, 도 5 는 본 개시의 일 실시예의 분류 모델에 의하여 데이터 세트의 하나 이상의 데이터 각각이 해공간에 매핑된 것을 나타낸 개념도이다. 도 5 는 최초의 라벨링된 데이터에 의하여 학습된 분류 모델이 해공간에 매핑된 데이터를 분류하는 것을 나타낸 개념도이다. 도 5 에서 분류 기준(400)을 기준으로 제 1 라벨(330)이 적용된 데이터와 제 2 라벨(350)에 적용된 데이터가 분류 기준(400)에 의하여 분류되어 해공간에 매핑되어 있다. 프로세서(110)는 해공간에 매핑된 데이터의 해공간 상에서의 위치와 분류 기준과의 거리에 기초하여 해당 데이터의 불확실성 정도를 결정할 수 있다. 프로세서(110)는 데이터의 해공간 상에서의 위치와 분류 기준과의 거리가 가까울수록 해당 데이터의 불확실성 정도가 높은 것으로 결정할 수 있다. 데이터의 해공간 상에서의 위치와 분류 기준과의 거리는 예를 들어, 유클라디안 거리일 수 있으나, 본 개시는 이에 제한되지 않는다. 불확실성 정도는 데이터 각각에 대하여 결정될 수 있다. 도 5 를 참조하여 설명하면, 도 5에서 분류 기준(400)에 인접하여 위치할수록 해당 데이터의 불확실정 정도는 큰 것으로 결정될 수 있다. 불확실성 정도가 큰 데이터를 라벨링 하는 경우, 분류 모델의 분류 성능이 보다 정교해질 수 있으므로, 추가 라벨링을 위하여 라벨링 되지 않은 데이터를 선택할 때, 해당 데이터의 불확실성 정도를 고려할 수 있다.
프로세서(110)는 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정할 수 있다. 데이터 서브세트는 데이터 세트에 포함된 하나 이상의 데이터 중에서 선택된 유니크 페어일 수 있다. 예를 들어, 데이터 서브세트는 데이터 세트에 포함된 라벨링 되지 않은 데이터 중에서 선택된 2 개 이상의 데이터를 포함할 수 있다. 각각의 데이터 서브세트는 서로 상이할 수 있다. 예를 들어, 데이터가 5 개 존재하는 경우, 데이터 서브세트는 5개의 데이터에서 선택된 2 개 이상의 데이터를 가지는 부분집합일 수 있으며, 각각의 부분집합은 서로 중복되지 않을 수 있다. 프로세서(110)는 데이터 서브세트에 포함된 데이터들의 해공간에서의 위치에 기초하여 데이터 서브세트에 포함된 데이터들의 유사성 정도를 결정할 수 있다. 프로세서(110)는 데이터 서브세트에 포함된 데이터 각각을 분류 모델에 입력시켜 해공간에 매핑시키고, 데이터 각각의 해공간 상에서의 위치에 기초하여 데이터 서브세트에 포함된 데이터의 유사성 정도를 결정할 수 있다. 데이터 각각의 해공간 상에서의 거리는 유클라디안 거리에 기초하여 결정될 수 있으나 본 개시는 이에 제한되지 않는다. 데이터의 유사성은 해공간 상에서의 거리, 코사인 유사도, 내적 등에 기초하여 결정될 수 있으나, 본 개시는 이에 제한되지 않으며, 프로세서(110)는 임의의 데이터 유사성 판단 알고리즘에 기초하여 데이터 서브세트에 포함된 데이터들의 유사성 정도를 결정할 수 있다.
본 개시의 다른 일 실시예에서, 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도는 데이터 공간에서 각각의 데이터 사이의 거리에 기초하여 결정될 수도 있다. 프로세서(110)는 데이터 서브세트에 포함된 하나 이상의 데이터 각각을 데이터 공간에 매핑시키고, 데이터 각각의 데이터 공간 상에서의 위치에 기초하여 데이터들의 유사성 정도를 결정할 수 있다. 즉, 유사성 정도는 분류 모델에 무관하게 데이터 자체의 특성에 기초하여 결정될 수도 있다.
도 6 을 참조로 설명하면, 도 6 은 본 개시의 일 실시예의 분류 모델에 의하여 데이터 세트의 하나 이상의 데이터 각각이 해공간에 매핑된 것을 나타낸 개념도이다. 도 6 에서, 해공간에 매핑된 데이터들 중 일부가 라벨링을 위하여 선택된 것을 확인할 수 있다. 도 6 에서 1번부터 5번 까지의 데이터들 중, 1번 데이터(311), 2번 데이터, 3번 데이터, 5번 데이터(313)는 라벨링을 위하여 선택되었으나, 4번 데이터(312)는 라벨링을 위하여 선택되지 않았음을 확인할 수 있다. 4번 데이터(312)는 5번 데이터(313)와 해공간 상에서의 거리가 인접하여, 유사성 정도가 높을 수 있다. 프로세서(110)는 4번 데이터(312)와 5번 데이터(313)를 포함하는 데이터 서브세트의 유사성 정도를 결정할 수 있다. 이때, 프로세서(110)는 4번 데이터(312)와 5번 데이터(313)의 유사성 정도가 높은 것으로 결정할 수 있으며, 유사성 정도가 사전결정된 기준 이상인 경우, 프로세서(110)는 4번 데이터(312)와 5번 데이터(313)를 포함하는 데이터 서브세트를 추가 라벨링에 대하여 선택하지 않을 수 있다. 유사성 정도에 대한 사전결정된 기준은 라벨링 하고자 하는 데이터의 특성에 기초하여 결정되거나, 데이터 세트에 포함된 데이터의 수, 데이터 세트에 포함된 라벨링된 데이터의 수, 데이터 세트에 포함된 라벨링 되지 않은 데이터의 수, 데이터 세트의 라벨링된 데이터의 수와 라벨링 되지 않은 데이터 수의 비율, 라벨링 하고자 하는 데이터의 수 등에 기초하여 결정될 수 있다.
유사성 정도가 낮은 데이터들을 라벨링 하는 경우, 추가적인 라벨링을 최소화할 수 있으므로 라벨링 코스트를 줄일 수 있다.
전술한 바와 같이, 불확실정 정도 및 유사성 정도는 분류 모델에 데이터들을 입력시켜 피처를 추출함으로써 결정될 수도 있으며, 데이터에 피처 추출 등의 처리를 하지 않고도 데이터 공간상에서 데이터들의 매핑 위치에 기초하여 결정될 수도 있다.
본 개시의 일 실시예에서, 프로세서(110)는 추가 라벨링의 대상이 되는 라벨링 되지 않은 데이터를 선택하기 위하여, 불확실성 정도와 유사성 정도의 최적 값을 찾기 위하여 본 개시의 일 실시예의 데이터 처리 방법을 수행할 수 있다.
프로세서(110)는 불확실성 정도 및 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링 할 수 있다. 프로세서(110)는 불확실성 정도 및 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 라벨링 되지 않은 데이터 적어도 일부를 선택하고, 선택된 데이터를 추가적으로 라벨링 할 수 있다. 프로세서(110)는 라벨링 되지 않은 데이터를 라벨링 하였을 때, 분류 모델의 성능이 가장 많이 개선되도록 할 수 있는 라벨링 되지 않은 데이터를 선택할 수 있다. 프로세서(110)는 라벨링 되지 않은 데이터 자체의 중요도와 라벨링 되지 않은 데이터들 사이의 관계에 기초하여 추가적으로 라벨링 될 데이터를 선택할 수 있다.
프로세서(110)는 데이터 세트에 포함된 데이터 각각에 대하여 불확실성 정도를 결정할 수 있고, 데이터 서브세트 각각에 대하여 데이터 서브세트에 포함된 데이터들의 유사성 정도를 결정할 수 있다. 프로세서(110)는 데이터 별로 결정된 불확실성 정도 및 데이터 서브세트 별로 결정된 유사성 정도에 기초하여 추가적으로 라벨링 될 라벨링 되지 않은 데이터를 선택할 수 있다.
프로세서(110)는 불확실성 정도가 높고 유사성 정도가 낮은 데이터를 선택하여 라벨링할 수 있다. 프로세서(110)는 라벨링되지 않은 데이터들 중에, 불확실성 정도가 높은 데이터를 라벨링할 수 있다. 또한, 프로세서(110)는 라벨링되지 않은 데이터들 중에 유사도가 낮은 데이터를 라벨링 할 수 있다. 프로세서(110)는 라벨링 되지 않은 데이터를 라벨링 하였을 때, 분류 모델의 성능이 가장 많이 개선되도록 할 수 있는 라벨링 되지 않은 데이터를 선택할 수 있다. 불확실성 정도가 높은 데이터는 분류 모델의 분류 기준(400)에 인접한 데이터로서, 현재 분류 모델에서, 분류가 정확하지 않을 수 있는 데이터 일 수 있다. 따라서, 불확실성 정도가 높은 데이터를 라벨링 할 경우, 분류 모델의 성능이 크게 개선될 수 있다. 유사도가 높은 데이터는 이들 중에 하나만 라벨링 하여도 실질적으로 유사도가 높은 데이터 모두를 라벨링 한 것과 유사한 효과를 가질 수 있으므로, 프로세서(110)는 효율성을 위하여 유사도가 낮은 데이터 서브세트만을 선택적으로 라벨링 할 수 있다.
프로세서(110)는 불확실성 정도와 유사성 정도를 상호 연관시켜 데이터 선택에 반영할 수 있다. 프로세서(110)는 불확실성 정도와 유사성 정도에 상대적 가중치를 연산함으로써, 불확실성 정도와 유사성 정도를 연관시켜 데이터 선택에 반영시킬 수 있다. 예를 들어, 프로세서(110)는 불확실성 정도에 가중치 c를 곱하고(여기서, 예를 들어, c는 0과 e 사이의 값), 유사성 정도에 가중치 d를 곱하여 불확실성 정도와 유사성 정도에 기중치를 부가하여 데이터 선택에 반영시킬 수 있다. 여기서 불확실성 정도와 유사성 정도에 부가되는 가중치는 상관 관계를 가질 수 있다. 예를 들어, d=e-c로 함으로써, 프로세서(110)는 불확실성 정도와 유사성 정도를 연관시켜 데이터 선택에 반영시킬 수 있다. 전술한 상관계수는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
프로세서(110)는 추가적으로 라벨링 된 데이터에 적어도 부분적으로 기초하여 분류 모델을 업데이트 할 수 있다. 라벨링되지 않은 데이터가 추가적으로 라벨링 되었으므로, 프로세서(110)는 추가적으로 라벨링된 데이터를 포함하는 데이터 세트를 이용하여 분류 모델을 학습시켜 분류 모델을 업데이트 할 수 있다. 보다 많은 라벨링된 데이터를 포함하는 데이터 세트를 이용하여 분류 모델을 재학습시킴으로써, 분류 모델의 성능이 향상될 수 있다.
이하에서는 추가적으로 라벨링 될 데이터를 선택하는 상세한 과정을 수식을 이용하여 설명한다.
Figure 112019058211988-pat00001
는 데이터 세트 D를 이용하여 학습된 모델을 나타낸다. 데이터 세트 D는 (x`, y`, x)로 구성될 수 있으며, 여기서 x`는 y`로 라벨링된 데이터를 의미하고, x는 라벨링 되지 않은 데이터를 나타낸다. 데이터 세트 D`는 라벨링 되지 않은 데이터 x중 일부를 추가적으로 라벨링 한 데이터 세트를 의미한다.
Figure 112019058211988-pat00002
는 모델 f의 성능을 나타내는 지표일 수 있다.
Figure 112019058211988-pat00003
는 라벨링 되지 않은 데이터 x를 라벨링 하였을 때, 모델 f의 성능 향상의 정도를 나타낼 수 있다.
Figure 112019058211988-pat00004
본 개시의 일 실시예에서, 프로세서(110)는 라벨링 되지 않은 데이터 중에서 R(X)를 최대로 하는 데이터를 선택하여 라벨링 할 수 있다.
z는 라벨링되지 않은 데이터 x 중에서 어떤 데이터가 라벨링 되기 위하여 선택되는지 여부를 나타내기 위하여, 0 또는 1 값을 가지는 변수일 수 있다.
즉, i 번째 라벨링 되지 않은 데이터 xi가 라벨링을 위해 선택되는 경우 zi = 1이고, xi가 라벨링을 위해 선택되지 않는 경우 zi = 0이다.
연산의 효율을 위하여 z가 임의의 값을 갖도록 할 수 있으며, 데이터 선택 시 0과 1중 가까운 값으로 맵핑될 수 있다. 전술한 z의 값이 0과 1 인 실시예는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
z를 사용하여 발명의 내용을 구체화한 수학식 1 은 이하와 같다.
Figure 112019058211988-pat00005
여기서 n은 라벨링 되지 않은 데이터의 개수일 수 있으며, 또는 선택하고자 하는 라벨링 되지 않은 데이터들의 후보들의 개수일 수 있다.
여기서 a는 임의의 실수일 수 있으며, i와 j는 라벨링 되지 않은 데이터를 구분하기 위한 인디케이터이다. 예를 들어, a=1일 수 있다. 즉, a는 서로 다른 라벨링 되지 않은 데이터를 선택하도록 하기 위한 실수 일 수 있다.
여기서,
Figure 112019058211988-pat00006
이고
Figure 112019058211988-pat00007
는 xi의 불확실성 정도일 수 있으며,
Figure 112019058211988-pat00008
은 0에서 b사이의 값을 가지도록 정규화 된 함수 일 수 있으며, 예를 들어, b의 값은 1 일 수 있다.
또한 여기서,
Figure 112019058211988-pat00009
이고,
Figure 112019058211988-pat00010
는 xi와 xj의 유사도 일 수 있으며,
Figure 112019058211988-pat00011
는 0과 b 사이의 값을 가지도록 정규화 된 함수 일 수 있으며, 예를 들어, b의 값은 1 일 수 있다. 편의상 수식에서는 2개의 라벨링 되지 않은 데이터의 유사성 정도를 구하는 것으로 작성하였으나, 본 개시는 이에 제한되지 않으며, 프로세서(110)는 복수의 데이터들 사이의 유사성 정도를 결정할 수 있다.
따라서, 프로세서(110)는 각각의 라벨링 되지 않은 데이터에 대하여 불확실성 정도를 결정하고, 복수의 라벨링 되지 않은 데이터를 포함하는 데이터 서브세트 각각에 대하여 유사성 정도를 결정하여, 추가로 라벨링 하였을 때 분류 모델의 성능 향상을 최대화할 수 있는 라벨링 되지 않은 데이터를 선택할 수 있다.
프로세서(110)는 R(z)의 값을 최대로 만드는 z1, z2, …, zn를 획득하여, 해당 라벨링 되지 않은 데이터를 추가적으로 라벨링 하기 위하여 선택할 수 있다. 전술한 바와 같이, z1, z2, …, zn 각각은 데이터 세트에 포함된 i번째 데이터를 나타내는 벡터 표현일 수 있다. 즉, 라벨링을 위하여 라벨링 되지 않은 데이터를 선택할 때, R(z)의 값을 최대로 만드는 z1, z2, …, zn를 획득하고, 그에 기초하여 라벨링 되지 않은 데이터를 선택할 수 있다.
프로세서(110)는 z1, z2, …, zn의 합이 특정 범위 내에 있는 제약 조건 하(즉, 선택하고자 하는 데이터의 수가 특정 범위 내에 있는 조건)에서 R(z)의 값을 최대로 만드는 z1, z2, …, zn를 획득하여, 해당 라벨링 되지 않은 데이터를 추가적으로 라벨링 하기 위하여 선택할 수 있다. 여기서 특정 범위는 하나의 값일 수 있다. 전체를 라벨링 하기 위하여 선택하는 경우가 R(z)의 값을 최대로 만들 수 있으나, 이는 비효율적이므로, 라벨링 되지 않은 데이터 중 일부만을 선택하도록 선택될 데이터의 수는 라벨링 되지 않은 데이터의 수의 적어도 일부일 수 있다. 따라서, 프로세서(110)는 선택될 데이터의 수가 제한된 상황에서 분류 모델의 성능 개선을 최대화하는 데이터를 본 개시의 일 실시예에 따라 선택할 수 있다.
프로세서(110)는 z1, z2, …, zn에 대해 정의된 함수 값이 특정 범위 내에서 또는 사전에 정해진 값들 중에서 하나의 값을 갖는 제약 조건 하(즉, 선택하고자 하는 데이터의 수가 특정 범위 내에 있거나 특정 값들 중에서 선택되는 조건)에서 R(z)의 값을 최대로 만드는 z1, z2, …, zn를 획득하여, 해당 라벨링 되지 않은 데이터를 추가적으로 라벨링 하기 위하여 선택할 수 있다. 여기서 함수는 더하기, 빼기, 곱하기, 나누기의 사칙연산, 로그, 지수, 삼각 함수(싸인, 코싸인, 탄젠트 등) 등의 연산과 그 연산들의 조합일 수 있다. 본 개시는 이에 제한되지 않으며, 프로세서(110)는 다양한 수학 연산을 사용할 수 있다.
프로세서(110)는 불확실성 정도와 유사성 정도를 상호 연관시켜 데이터 선택에 반영할 수 있다. 프로세서(110)는 불확실성 정도와 유사성 정도에 상대적 가중치를 연산함으로써, 불확실성 정도와 유사성 정도를 연관시켜 데이터 선택에 반영시킬 수 있다. 이러한 과정을 수학식 3으로 표현하면 이하와 같다.
Figure 112019058211988-pat00012
여기서, c와 d는 상관 관계를 가질 수 있으며, 예를 들어, d=(e-c)일 수 있다. c와 d는 0과 e 사이의 값일 수 있으며, 예를 들어, e는 1 일 수 있다.
프로세서(110)는 상관계수를 조절하여, 추가 라벨링 대상 데이터를 선택할 때, 불확실성 정도와 유사성 정도의 반영 비율을 결정할 수 있다. 프로세서(110)는 데이터 세트의 라벨링된 데이터와 라벨링 되지 않은 데이터의 비율에 기초하여 상관계수를 조절함으로써, 추가 라벨링 대상 데이터를 선택할 때, 불확실성 정도와 유사성 정도의 반영 비율을 결정할 수 있다.
예를 들어, 프로세서(110)는 초기에는 불확실성 정도 및 유사성 정도가 유사한 비율로 반영되도록 상관계수를 조절할 수 있다. 또한 예를 들어, 프로세서(110)는 라벨링된 데이터의 비율이 늘어날수록 유사성 정도를 불확실성 정도보다 크게 반영하여 유사한 데이터를 불필요하게 라벨링 하는 것을 방지할 수도 있다. 또한, 예를 들어, 프로세서(110)는 라벨링된 데이터의 비율이 늘어날수록 불확실성 정도를 유사성 정도보다 크게 반영하여 불확실성이 높은 데이터가 많이 남아있지 않은 상황에서 최적화된 추가 라벨링된 데이터의 선택을 할 수 있다.
본 개시의 일 실시예에서, 데이터를 라벨링 해 나가면서 뉴럴 네트워크 모델이 능동 학습할 때, 라벨링 되지 않은 데이터의 불확실성 정도에 기초하여 추가 데이터를 선택함으로써, 분류 모델이 분류하기 어려운 데이터를 추가적으로 라벨링 하여 분류 모델의 성능을 향상시킬 수 있다. 또한, 본 개시의 일 실시예에서, 데이터를 추가적으로 라벨링 할 때, 추가적으로 라벨링 될 데이터를 서로 유사성이 낮은 것들에 기초하여 선택함으로써, 추가 라벨링을 최소화하면서도 모델의 성능을 향상시킬 수 있다. 본 개시의 일 실시예에서, 추가적으로 라벨링 될 데이터를 선택하기 위하여 불확실성 정도 및 유사성 정도를 모두 고려함으로써 모델의 성능을 향상시키기 위한 추가 라벨링 동작을 최적화할 수 있다. 또한, 모든 라벨링 되지 않은 데이터를 대상으로 이와 같은 추가 라벨링 대상 데이터 선택 프로세스를 수행함으로써, 불확실성 정도만을 고려하여 데이터를 선택한 후, 유사성 정도에 기초하여 필터링 하는 경우 보다 최적화된 추가 라벨링 대상 데이터를 선정할 수 있다.
도 2 는 본 개시의 일 실시예의 네트워크 함수를 나타낸 개략도이다.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 “노드”라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 “노드”들은 “뉴런(neuron)”들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의“링크”에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들을 포함하여 구성될 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다, 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. 본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에서 뉴럴 네트워크 모델은 오토인코더를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 이 경우, 차원 감소 레이어와 차원 복원 레이어의 노드는 대칭일 수도 있고 아닐 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 남은 센서들의 수와 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 및 반교사학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨이 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.
도 3 은 본 개시의 일 실시예의 데이터 처리 방법의 데이터 처리를 나타낸 순서도이다.
이하에서는 도 4 내지 7의 개념도를 함께 참조하여 데이터 처리 방법의 데이터 처리 과정을 설명한다.
컴퓨터 장치(100)는 데이터 세트를 획득할 수 있다(210). 데이터 세트에는 언라벨 데이터(unlabeled data), 라벨링된 데이터(labeled data)가 포함될 수 있다. 컴퓨터 장치(100)는 데이터 세트에 포함된 일부의 라벨링된 데이터에 기초하여 최초의 분류 모델을 학습시킬 수 있다. 도 4 에 도시된 예시는 최초의 분류 모델을 이용하여 데이터 세트에 포함된 데이터들을 해공간에 매핑시키고, 이들 중 임의의 일부에게 라벨링 한 상태를 나타낸 개념도이다. 컴퓨터 장치(100)는 최초의 분류 모델을 이용하여 데이터 세트에 포함된 데이터들을 해공간에 매핑 시킬 수 있다. 여기서 최초의 분류 모델은 임의의 가중치를 가지는 뉴럴 네트워크 모델일 수도 있으며, 이전 학습 데이터에 기초하여 학습된 분류 모델일 수도 있다. 도 4 에 도시된 예시에서, 각각의 점들은 해공간에 매핑된 데이터를 나타낸다. 예를 들어, 참조번호 301은 라벨링 되지 않은 데이터가 해공간에 매핑된 것을 나타낸다. 컴퓨터 장치(100)는 데이터 세트에 포함된 데이터 중 일부를 선택하여 라벨링 할 수 있다. 전술한 바와 같이 라벨링은 컴퓨터 장치(100)에서 수행되거나, 사용자 입력에 기초하여 수행될 수 있다. 도 4에 도시된 예시에서, 언라벨 데이터(310), 제 1 라벨(330)이 적용된 데이터, 제 2 라벨(350)이 적용된 데이터가 해공간에 매핑된 상태가 표시되어 있다.
도 5 는 최초의 라벨링된 데이터에 의하여 학습된 분류 모델이 해공간에 매핑된 데이터를 분류하는 것을 나타낸 개념도이다. 도 5의 예시에서, 분류 기준(400)에 의하여 제 1 라벨(330)이 적용된 데이터와 제 2 라벨(350)이 적용된 데이터가 해공간에서 분류되었음을 확인할 수 있다.
데이터 세트에 포함된 언라벨 데이터(210)는 본 개시의 일 실시예의 데이터 처리 방법에 기초하여 일부가 라벨링을 위하여 선택될 수 있다(230). 컴퓨터 장치(100)는 전술한 바와 같이 언라벨 데이터의 불확실성 정도 및 유사성 정도에 기초하여 라벨링 될 샘플 언라벨 데이터를 선택할 수 있다.
도 6 을 참조로 설명하면, 도 6 은 본 개시의 일 실시예의 분류 모델에 의하여 데이터 세트의 하나 이상의 데이터 각각이 해공간에 매핑된 것을 나타낸 개념도이다. 도 6 에서, 해공간에 매핑된 데이터들 중 일부가 라벨링을 위하여 선택된 것을 확인할 수 있다.
도 6 에서 1번부터 5번 까지의 데이터들 중, 1번 데이터(311), 2번 데이터, 3번 데이터, 5번 데이터(313)는 라벨링을 위하여 선택되었으나, 4번 데이터(312)는 라벨링을 위하여 선택되지 않았음을 확인할 수 있다. 1번 내지 5 번 데이터는 분류 기준(400)과 인접하여 위치하여 불확실성 정도가 높은 데이터이며, 그중 4 번 데이터는 5 번 데이터와 유사성 정도가 높아 선택되지 않았음을 확인할 수 있다. 또한 도 6의 예시에서 97번, 98번, 99번 데이터는 불확실성 정도가 낮아 선택되지 않았음을 확인할 수 있다.
즉, 컴퓨터 장치(100)는 전술한 수학식 2 또는 3 에 기초하여, 언라벨 데이터(310) 중에서 라벨링 대상 데이터(370)를 선택할 수 있다.
컴퓨터 장치(100)는 라벨링 되지 않은 데이터 각각에 대한 불확실성 정도와 라벨링 되지 않은 데이터를 복수 개 포함하는 데이터 서브세트에 포함된 데이터들 간의 유사성 정도에 기초하여, 선택 시 분류 모델의 성능 개선을 최대화하는 샘플을 선택할 수 있다. 분류 모델의 성능 개선을 최대화하기 위해서는 불확실성 정도가 높고, 유사성 정도가 낮은 언라벨 데이터(310)를 선택하는 것이 바람직하다.
컴퓨터 장치(100)는 선택된 샘플을 라벨링 할 수 있다(250). 전술한 바와 같이 라벨링은 컴퓨터 장치(100)에서 분류 모델을 이용하여 수행될 수도 있으며, 사용자 입력에 기초하여 수행될 수도 있다.
도 7 은 선택된 언라벨 데이터를 라벨링 하고, 추가적으로 라벨링 된 데이터를 포함하는 데이터 세트를 이용하여 분류 모델을 업데이트 하는 것을 나타낸 개념도이다. 컴퓨터 장치(100)는 선택된 제 1 데이터(311), 제 2 데이터, 제 3 데이터 및 제 5 데이터(313)를 라벨링 할 수 있다. 도 7 의 예시에서, 제 1 데이터(311)는 제 2 라벨이 적용되고, 제 2 데이터는 제 1 라벨이 적용되고, 제 3 데이터는 제 2 라벨이 적용되고, 제 5 데이터는 제 1 라벨이 적용된다.
컴퓨터 장치(100)는 라벨링 된 데이터가 추가되었으므로, 라벨링 된 데이터가 추가된 데이터 세트를 이용하여 분류 모델을 학습시킬 수 있다(270). 학습 결과로 분류 모델의 분류 기준(400)이, 참조번호 401과 같이 조정되었음을 도 7 의 예시에서 확인할 수 있다. 라벨링 된 데이터가 추가되면서 분류 모델의 분류 기준은 보다 정교해질 수 있으며, 분류 성능이 향상될 수 있다.
데이터 세트를 이용하여 모델을 생성하는 경우, 데이터 세트의 라벨링 퀄리티와 모델의 성능이 상관 관계를 가질 수 있다. 라벨링을 위해서는 해당 분야의 전문가가 필요할 수 있으며, 시간과 비용이 소요될 수 있다. 따라서, 라벨링을 효율적으로 하는 경우, 모델을 생성하기 위한 데이터 세트의 관리를 위한 시간과 비용을 절약할 수 있다. 그러므로, 본 개시의 일 실시예의 데이터 처리 방법에 의하면 라벨링 되지 않은 데이터 중에서 모델의 성능을 가장 향상시키면서도 효율성이 좋은 일부를 선택하여 라벨링 하도록 하여 라벨링을 위한 코스트를 크게 줄일 수 있다. 즉, 라벨링 코스트를 줄이기 위해서는 라벨링 하여야 하는 데이터를 최소화하는 것이 바람직 하며, 라벨링 데이터를 최소화하면서도 모델의 성능을 유지하거나 향상시키기 위해서는 라벨링 하여야 하는 데이터의 효율적인 선택이 중요할 수 있다. 따라서, 본 개시의 일 실시예의 데이터 처리 방법은 라벨링 되지 않은 데이터의 불확실성 정도와 유사성 정도를 함께 고려하여 모델의 분류 성능을 향상시키면서도 중복된 라벨링 작업이 아니도록 하여 효율성을 달성할 수 있다.
본 개시의 일 실시예의 데이터 처리를 위한 컴퓨터 프로그램 및 방법은 다음과 같은 모듈에 의해 구현될 수 있다.
본 개시의 일 실시예에서, 데이터 처리를 위한 컴퓨터 프로그램 또는 방법은 데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 모듈; 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 모듈; 및 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 모듈에 의하여 구현될 수 있다.
대안적으로, 데이터 처리를 위한 컴퓨터 프로그램 또는 방법은 상기 데이터 세트에 포함된 하나 이상의 데이터를 분류 모델에 입력시켜 해공간에 매핑시키는 모듈에 의하여 구현될 수 있다.
대안적으로, 데이터 처리를 위한 컴퓨터 프로그램 또는 방법은 추가적으로 라벨링 된 데이터에 적어도 부분적으로 기초하여 분류 모델을 업데이트 하는 모듈에 의하여 구현될 수 있다.
대안적으로, 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 모듈은, 상기 불확실성 정도가 높고 그리고 상기 유사성 정도가 낮은 데이터를 선택적으로 라벨링 하는 모듈을 포함할 수 있다.
대안적으로, 상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 모듈은, 상호 연관된 상기 불확실성 정도와 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하는 모듈을 포함할 수 있다.
본 개시의 일 실시예에 따른 데이터 처리 방법, 컴퓨터 프로그램은 모듈뿐 아니라, 이를 구현하기 위한 수단, 회로 또는 로직에 의하여 구현될 수도 있다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있으나, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
도 8 은 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨터 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음), 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (15)

  1. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터 장치의 하나 이상의 프로세서에서 실행되는 경우 데이터 처리를 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은:
    데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 동작;
    데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 동작;
    상기 불확실성 정도 및 상기 유사성 정도 각각에 상대적 가중치를 부가함으로써 상기 불확실성 정도와 상기 유사성 정도를 상호 연관시키는 연산에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하는 동작; 및
    선택된 데이터를 추가적으로 라벨링하는 동작;
    을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  2. 제 1 항에 있어서,
    상기 데이터 세트에 포함된 하나 이상의 데이터를 분류 모델에 입력시켜 해공간에 매핑시키는 동작;
    을 더 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  3. 제 1 항에 있어서,
    상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작 이후에,
    추가적으로 라벨링 된 데이터에 적어도 부분적으로 기초하여 분류 모델을 업데이트 하는 동작;
    을 더 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  4. 제 1 항에 있어서,
    상기 불확실성 정도 및 상기 유사성 정도에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고 선택된 데이터를 추가적으로 라벨링하는 동작은,
    상기 불확실성 정도가 높고 그리고 상기 유사성 정도가 낮은 데이터를 선택적으로 라벨링 하는 동작;
    을 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  5. 제 1 항에 있어서,
    상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는,
    상기 하나 이상의 데이터 각각을 분류 모델을 이용하여 분류한 결과에 적어도 부분적으로 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  6. 제 5 항에 있어서,
    상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는,
    상기 분류 모델에 상기 하나 이상의 데이터 각각을 입력시켜 상기 하나 이상의 데이터 각각을 해공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 해공간에서의 위치와 상기 분류 모델의 분류 기준과의 거리에 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  7. 제 1 항에 있어서,
    상기 하나 이상의 데이터 각각에 대한 라벨링 기준에 대한 불확실성 정도는,
    하나 이상의 데이터 각각을 데이터 공간에 매핑시키고, 상기 하나 이상의 데이터 각각의 데이터 공간에서의 위치와 분류 기준과의 거리에 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  8. 제 1 항에 있어서,
    상기 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도는,
    분류 모델에 상기 데이터 서브세트에 포함된 하나 이상의 데이터 각각을 입력시켜 상기 하나 이상의 데이터 각각을 해공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 해공간 상에서의 위치에 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  9. 제 1 항에 있어서,
    상기 데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도는,
    상기 데이터 서브세트에 포함된 하나 이상의 데이터 각각을 데이터 공간에 매핑시키고, 그리고 상기 하나 이상의 데이터 각각의 데이터 공간 상에서의 위치에 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  10. 제 1 항에 있어서,
    상기 데이터 서브세트는 상기 데이터 세트에 포함된 하나 이상의 데이터 중에 선택된 유니크 페어인,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  11. 삭제
  12. 삭제
  13. 제 1 항에 있어서,
    상기 데이터는 제조 환경에서 제조물을 제조하는 동안 획득된 센서 데이터를 포함하는,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  14. 컴퓨터 장치의 하나 이상의 프로세서에서 실행되는 데이터 처리 방법으로서,
    데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하는 단계;
    데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하는 단계;
    상기 불확실성 정도 및 상기 유사성 정도 각각에 상대적 가중치를 부가함으로써 상기 불확실성 정도와 상기 유사성 정도를 상호 연관시키는 연산에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하는 단계; 및
    선택된 데이터를 추가적으로 라벨링하는 단계;
    를 포함하는,
    데이터 처리 방법.
  15. 데이터 처리를 위한 컴퓨터 장치로서,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에서 실행가능한 컴퓨터 프로그램을 저장하는 메모리;
    를 포함하고,
    상기 하나 이상의 프로세서는,
    데이터 세트에 포함된 하나 이상의 데이터 각각에 대하여 라벨링 기준에 대한 불확실성 정도(uncertainty level)를 결정하고,
    데이터 서브세트에 포함된 하나 이상의 데이터들의 유사성 정도(similarity level)를 결정하고,
    상기 불확실성 정도 및 상기 유사성 정도 각각에 상대적 가중치를 부가함으로써 상기 불확실성 정도와 상기 유사성 정도를 상호 연관시키는 연산에 기초하여 데이터 세트에 포함된 데이터 중 적어도 일부를 선택하고, 그리고
    선택된 데이터를 추가적으로 라벨링하는,
    컴퓨터 장치.
KR1020190067175A 2019-04-02 2019-06-07 학습 데이터 관리 방법 KR102295805B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190067175A KR102295805B1 (ko) 2019-04-02 2019-06-07 학습 데이터 관리 방법
US16/832,694 US11562167B2 (en) 2019-04-02 2020-03-27 Method of training neural network classification model using selected data
KR1020210112012A KR20210107584A (ko) 2019-04-02 2021-08-25 학습 데이터 관리 방법
US18/069,637 US20230127656A1 (en) 2019-04-02 2022-12-21 Method for managing training data

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962828346P 2019-04-02 2019-04-02
US62/828,346 2019-04-02
KR1020190067175A KR102295805B1 (ko) 2019-04-02 2019-06-07 학습 데이터 관리 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210112012A Division KR20210107584A (ko) 2019-04-02 2021-08-25 학습 데이터 관리 방법

Publications (2)

Publication Number Publication Date
KR20200116831A KR20200116831A (ko) 2020-10-13
KR102295805B1 true KR102295805B1 (ko) 2021-08-31

Family

ID=72663113

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190067175A KR102295805B1 (ko) 2019-04-02 2019-06-07 학습 데이터 관리 방법
KR1020210112012A KR20210107584A (ko) 2019-04-02 2021-08-25 학습 데이터 관리 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210112012A KR20210107584A (ko) 2019-04-02 2021-08-25 학습 데이터 관리 방법

Country Status (2)

Country Link
US (2) US11562167B2 (ko)
KR (2) KR102295805B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102531645B1 (ko) 2020-02-24 2023-05-11 주식회사 마키나락스 모델의 성능 테스트를 위한 컴퓨터 프로그램
US20210287136A1 (en) * 2020-03-11 2021-09-16 Synchrony Bank Systems and methods for generating models for classifying imbalanced data
CN112115367B (zh) * 2020-09-28 2024-04-02 北京百度网讯科技有限公司 基于融合关系网络的信息推荐方法、装置、设备和介质
KR102526086B1 (ko) * 2020-11-05 2023-04-25 서울대학교산학협력단 클래스 의존적 도메인 유사화 학습 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN112989045B (zh) * 2021-03-17 2023-07-25 中国平安人寿保险股份有限公司 神经网络训练方法、装置、电子设备及存储介质
KR102362872B1 (ko) * 2021-06-08 2022-02-15 오브젠 주식회사 인공지능 학습을 위한 클린 라벨 데이터 정제 방법
KR102538475B1 (ko) * 2022-04-21 2023-05-31 주식회사 앤트랩 사전 정의 작업 기반 데이터 선별 방법, 이를 이용한 능동 학습 방법, 그리고 이를 구현한 컴퓨팅 장치
KR102489534B1 (ko) * 2022-11-14 2023-01-18 주식회사 마키나락스 수집이 필요한 정보의 영역을 예측하는 방법
CN115640336B (zh) * 2022-12-06 2023-08-22 北京辰极智程信息技术股份有限公司 业务大数据挖掘方法、***及云平台
CN117274726B (zh) * 2023-11-23 2024-02-23 南京信息工程大学 一种基于多视角补标签的图片分类方法与***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880628B1 (ko) 2017-11-27 2018-08-16 한국인터넷진흥원 기계 학습 데이터셋에 대한 레이블링 방법 및 그 장치
JP2018536923A (ja) 2015-10-22 2018-12-13 シマンテック コーポレーションSymantec Corporation クライアント−サーバトランザクションをアノテーションするためのシステム及び方法
US20190034831A1 (en) 2017-03-17 2019-01-31 California Institute Of Technology Systems and Methods for Online Annotation of Source Data using Skill Estimation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965895B2 (en) 2001-07-16 2005-11-15 Applied Materials, Inc. Method and apparatus for analyzing manufacturing data
US10489703B2 (en) 2015-05-20 2019-11-26 Nec Corporation Memory efficiency for convolutional neural networks operating on graphics processing units
US10002402B2 (en) 2015-07-23 2018-06-19 Sony Corporation Learning convolution neural networks on heterogeneous CPU-GPU platform
KR20180055708A (ko) 2016-11-16 2018-05-25 삼성전자주식회사 이미지를 처리하는 전자 장치 및 방법
KR20180080482A (ko) 2017-01-04 2018-07-12 (주)에프알텍 이동 통신 ICS(Interference Cancellation System) 중계 시스템의 안정적인 커버리지 확보를 위한 LTE(Long Term Evolution), WCDMA(Wideband Code Division Multiple Access) 이득 설정 방법
KR20190050477A (ko) 2017-11-03 2019-05-13 한국과학기술연구원 음폐수 처리 시스템 및 그 운전방법
JP6549760B1 (ja) * 2018-06-26 2019-07-24 三菱ケミカルエンジニアリング株式会社 生産システム、生産方法、及び制御装置
US11580170B2 (en) * 2018-11-01 2023-02-14 Google Llc Machine learning based automatic audience segment in ad targeting
KR102101974B1 (ko) 2019-01-23 2020-04-17 주식회사 마키나락스 어노말리 디텍션

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018536923A (ja) 2015-10-22 2018-12-13 シマンテック コーポレーションSymantec Corporation クライアント−サーバトランザクションをアノテーションするためのシステム及び方法
US20190034831A1 (en) 2017-03-17 2019-01-31 California Institute Of Technology Systems and Methods for Online Annotation of Source Data using Skill Estimation
KR101880628B1 (ko) 2017-11-27 2018-08-16 한국인터넷진흥원 기계 학습 데이터셋에 대한 레이블링 방법 및 그 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hoyoung Woo and Cheong Hee Park, Efficient Active Learning Method Based on Random Sampling and Backward Deletion, LNCS Vol.7751, pp. 683-691, 2013. 1부.*
S. Tong and D. Koller, Support Vector Machine Active Learning with Application to Text Classification, J. Machine Learning Research, Vol.2, pp.45-66, 2002. 1부.*

Also Published As

Publication number Publication date
KR20210107584A (ko) 2021-09-01
US20200320337A1 (en) 2020-10-08
KR20200116831A (ko) 2020-10-13
US20230127656A1 (en) 2023-04-27
US11562167B2 (en) 2023-01-24

Similar Documents

Publication Publication Date Title
KR102295805B1 (ko) 학습 데이터 관리 방법
KR102101974B1 (ko) 어노말리 디텍션
KR102531645B1 (ko) 모델의 성능 테스트를 위한 컴퓨터 프로그램
KR102313626B1 (ko) 신경망을 학습시키는 방법
US20210264209A1 (en) Method for generating anomalous data
KR102372487B1 (ko) 입력 데이터의 처리를 위한 최적의 어노말리 감지 모델 결정 방법
KR102549702B1 (ko) 신경망을 학습시키는 방법
KR20220167782A (ko) 비정상 데이터 검출 방법 및 장치
US20220269718A1 (en) Method And Apparatus For Tracking Object
KR20210050414A (ko) 신경망을 학습시키는 방법
KR102345892B1 (ko) 변화 탐지 방법 및 장치
KR20210074269A (ko) 입력 데이터의 처리를 위한 최적의 어노말리 감지 모델 결정 방법
US11625574B2 (en) Method for generating abnormal data
KR102457893B1 (ko) 딥러닝 기반의 강수량 예측 방법
KR102437285B1 (ko) 모호한 라벨을 이용한 객체 예측 모델 학습 방법
KR102292703B1 (ko) 피처 셋 정보에 기초한 전이 학습 방법
KR102287673B1 (ko) 비정상 데이터 생성 방법
US20230267311A1 (en) Method Of Selection And Optimization Of Auto-Encoder Model
KR20230103819A (ko) 데이터 증강 방법 및 장치
KR20210063313A (ko) 데이터 생성 방법
KR20210131604A (ko) 환경 인자 조절 장치 및 그 훈련 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant