KR102200809B1 - 학습기반 데이터 처리 시스템 및 모델 갱신 방법 - Google Patents

학습기반 데이터 처리 시스템 및 모델 갱신 방법 Download PDF

Info

Publication number
KR102200809B1
KR102200809B1 KR1020190037865A KR20190037865A KR102200809B1 KR 102200809 B1 KR102200809 B1 KR 102200809B1 KR 1020190037865 A KR1020190037865 A KR 1020190037865A KR 20190037865 A KR20190037865 A KR 20190037865A KR 102200809 B1 KR102200809 B1 KR 102200809B1
Authority
KR
South Korea
Prior art keywords
learning
data
model
learning model
data set
Prior art date
Application number
KR1020190037865A
Other languages
English (en)
Other versions
KR20200116279A (ko
Inventor
서장원
Original Assignee
주식회사 엘렉시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘렉시 filed Critical 주식회사 엘렉시
Priority to KR1020190037865A priority Critical patent/KR102200809B1/ko
Priority to US16/677,694 priority patent/US11556760B2/en
Priority to CN201911105993.8A priority patent/CN111798001A/zh
Publication of KR20200116279A publication Critical patent/KR20200116279A/ko
Application granted granted Critical
Publication of KR102200809B1 publication Critical patent/KR102200809B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치를 포함하도록 구성될 수 있다.

Description

학습기반 데이터 처리 시스템 및 모델 갱신 방법{Apparatus for Processing Data based on Learning and Method for Update of Model}
본 기술은 데이터 처리 기술에 관한 것으로, 보다 구체적으로는 학습기반 데이터 처리 시스템 및 모델 갱신 방법에 관한 것이다.
기계학습은 인공지능 시스템을 구현하는 접근 방식의 하나이다.
인공 지능 시스템은 다양한 환경에서 수집된 방대한 데이터를 분석하여 활용하며 자동차, 이미지 처리, 음성 처리, 의료, 보안, 금융 등 그 적용 범위가 날로 확대되고 있다.
인공 지능 시스템은 해결할 문제가 정의되면 이를 해결하기 위한 데이터를 수집 및 가공하여 데이터 집합을 구성한다. 데이터 집합은 문제 해결에 적합한 방법론, 예를 들어 신경망 방법론에 따라 학습(모델링)되어 학습 파라미터(모델)가 도출된다. 그리고, 제공(feeding)되는 데이터에 대해 학습 모델을 적용하여 결과를 추론, 즉 입력 데이터를 인식한다.
추론 과정에서 제공되는 데이터의 수가 유의미한 수준이 되면 학습 모델을 갱신할 수 있다.
방대한 양의 데이터를 분석하여 학습 모델을 구축하기 위하여 시스템의 연산량이 증가하고 누적되는 데이터를 계속해서 저장하기 위한 대용량 스토리지 장치가 필요하다.
본 기술의 실시예는 연산량 및 데이터 저장량을 최소화할 수 있는 학습기반 데이터 처리 시스템 및 모델 갱신 방법을 제공할 수 있다.
본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치;를 포함하도록 구성될 수 있다.
본 기술의 일 실시예에 의한 모델 갱신 방법은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서, 제 1 학습 데이터 집합에 기초하여 제 1 학습 모델을 생성하는 단계; 제 2 학습 데이터 집합에 기초하여 제 2 학습 모델 생성하는 단계; 및 상기 제 1 학습 모델과 상기 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하는 단계;를 포함하도록 구성될 수 있다.
본 기술에 의하면, 분석을 위해 제공되는 모든 데이터를 저장할 필요가 없다. 또한, 결합된 학습 모델에 기초하여 새로 제공되는 데이터를 학습하므로 데이터 저장량 및 연산량을 최소화할 수 있다.
도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.
도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.
도 1을 참조하면, 일 실시예에 의한 학습기반 데이터 처리 시스템(10)은 프로세서(110), ROM(120), RAM(130), 스토리지(140) 및 인터페이스부(IF, 150)를 포함할 수 있다.
프로세서(110)는 학습기반 데이터 처리 시스템(10)이 동작하는 데 필요한 프로그램 코드를 해독 및 연산하여 학습기반 데이터 처리 시스템(10)의 제반 동작을 제어할 수 있다.
ROM(120)은 학습기반 데이터 처리 시스템(10)의 동작에 필요한 각종 시스템 데이터, 펌웨어 코드, 소프트웨어 코드 등을 저장할 수 있다.
RAM(130)은 프로세서(110)의 동작에 수반되는 데이터를 저장하도록 구성될 수 있다.
스토리지(140)는 학습기반 데이터 처리 시스템(10)에서 사용하기 위한 데이터가 수집되는 반도체 기억장치일 수 있다.
인터페이스부(150)는 학습기반 데이터 처리 시스템(10)이 통신망을 통해 데이터를 송수신할 수 있는 통신망 인터페이스, 운용자 또는 작업자가 학습기반 데이터 처리 시스템(10)에 접근할 수 있는 사용자 인터페이스를 포함할 수 있다.
일 실시예에서, 프로세서(110)는 데이터 인식 장치(20)를 포함할 수 있다.
데이터 인식 장치(20)는 입력되는 데이터 집합, 즉 학습 데이터 집합을 모델링하여 학습 모델을 생성할 수 있다. 그리고, 관찰(feeding)되는 데이터에 대해 학습 모델을 적용하여 인식하여 출력할 수 있다.
데이터 인식 장치(20)는 추론 과정에서 제공되는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 새로운 학습 데이터 집합인 갱신 학습 데이터 집합을 구성하고, 학습 모델을 갱신할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 이전 시점의 학습 데이터 집합에 기초하여 생성한 학습 모델(제 1 학습 모델)과, 갱신 학습 데이터 집합에 기초하여 생성한 학습 모델(제 2 학습 모델)을 결합하여 결합된 학습 모델을 생성할 수 있다.
즉, 학습 데이터가 추가되어 학습 모델을 갱신할 때, 학습 데이터를 누적하여 학습하는 것이 아니라, 학습 데이터 집합별 학습 모델을 이용하여 모델을 갱신할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 학습 모델을 생성하기 위하여 신경망 방법론을 이용할 수 있으나 이에 한정되는 것은 아니다.
제 1 학습 모델을 생성하기 위한 학습 방법과, 제 2 학습 모델을 생성하기 위한 학습 방법은 같거나 상이할 수 있다.
본 기술에 의하면, 갱신되는 학습 데이터를 누적해서 저장하지 않고 학습 모델만을 저장하므로 데이터 저장량 및 연산량을 최소화할 수 있다.
데이터 인식 장치(20)는 소프트웨어 모듈 또는 하드웨어 모듈, 또는 소프트웨어와 하드웨어가 결합된 형태 등으로 제작될 수 있다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 2를 참조하면, 일 실시예에 의한 데이터 인식 장치(20)는 학습부(210), 추론부(220), 판단부(230) 및 모델 갱신부(240)를 포함할 수 있다.
학습부(210)는 입력되는 학습 데이터 집합에 포함된 원소들을 학습하여 학습 모델(M(.))을 생성하도록 구성될 수 있다.
일 실시예에서, 학습부(210)는 인공 신경망 방식으로 데이터를 학습하여 학습 모델(M(.))을 생성할 수 있다.
인공 신경망 방식은 입력 데이터에 가중치를 적용하여 결과를 추정하고, 추정값으로부터 오차를 검출하여 가중치를 보정하는 과정을 반복하여 데이터를 모델링하는 방식을 의미한다.
추론부(220)는 관찰 데이터에 학습 모델(M(.))을 적용하여 관찰 데이터의 인식 결과(D(M(.))를 출력할 수 있다.
판단부(230)는 입력 데이터 및 추론부(220)의 인식 결과(D(M(.))에 기초하여 분석 및 판단하고 판단 결과치(Ground Truth, GT(.))를 출력할 수 있다.
모델 갱신부(240)는 이전 시점의 학습 데이터 집합으로부터 생성된 제 1 학습 모델 및 현재 시점의 갱신 학습 데이터 집합으로부터 생성된 제 2 학습 모델의 인식 결과를 결합하여 결합된 학습 모델(M(AN))을 생성하고 추론부(220)로 제공하도록 구성될 수 있다.
N은 학습 모델의 갱신 차수를 의미할 수 있다.
일 실시예에서, 모델 갱신부(240)는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 갱신 학습 데이터 집합을 구성할 수 있다. 갱신 학습 데이터 집합이 구성되면 제 2 학습 모델을 생성하고, 이전 시점에 생성한 제 1 학습 모델과 제 2 학습 모델의 인식 결과를 결합하여 학습 모델을 갱신할 수 있다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 3을 참조하면, 초기 학습 데이터 집합(A)이 구성됨에 따라, 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다.
이 후 관찰 데이터가 제공됨에 따라, 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다.
추론부(220)의 인식 결과(D(M(A))는 판단부(230)에서 평가되어 판단 결과치(GT(k))가 생성될 수 있다.
관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다.
학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다.
추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.
판단부(230)는 추론부(220)의 인식 결과(D(M(B))를 평가하고 판단 결과치(GT(k), k는 갱신 학습 데이터 집합(B)의 원소)를 출력할 수 있다.
모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 판단부(230)의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다.
이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있다.
일 실시예에서, 모델 갱신부(240)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출할 수 있다. 즉, 갱신 학습 데이터 집합의 모든 원소(k)에 대해 상기 제 1 학습 모델에 의한 인식 결과(D(M(A),k)) 및 상기 제 2 학습 모델에 의한 인식 결과(D(M(B),k))가 판단 결과치 GT(k)와 동일해지도록 하는 분류함수(f)를 도출할 수 있다.
분류함수는 D(M(.))가 유한집합의 원소(c)로 맵핑되는 함수일 수 있다. C는 c의 집합이며, CN(C)는 집합 C의 크기를 의미한다.
그리고, 결합된 학습 모델(M(AN)) = f{(D(M(A),k)), (D(M(B),k))}로 정의할 수 있다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 5를 참조하면, 모델 갱신부(240)는 BKS 요소 생성부(241) 및 맵핑부(243)를 포함할 수 있다.
일 실시예에서, 결합된 학습 모델(M(AN))을 도출하기 위해, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식을 이용할 수 있다.
BKS 방식은 추론부(220)의 인식 결과 각각에 대한 판단 결과치를 테이블화하여 두고, 새로운(관찰) 데이터가 유입되면 테이블을 참조하여 인식 결과를 제공하는 방식을 의미한다.
BKS 방식에서, 추론부(220)의 인식 결과는 키 데이터가 될 수 있고, 각 키 데이터 별로 통계치 벡터를 산출하여 BKS 요소들을 구성할 수 있다.
BKS : BKS 요소들의 집합
BKS 요소 : {(키데이터, 통계치벡터)}
일 실시예에서, BKS 요소 생성부(241)는 이전 시점의 학습 데이터 집합(A) 및 갱신 학습 데이터 집합(B)의 모든 데이터(k)에 대한 추론을 실시하여 얻어진 인식 결과를 바탕으로 BKS 요소를 구성할 수 있다.
일 실시예에서, BKS 요소 생성부(241)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.
키데이터 = [D(M(A)), D(M(B))]
BKS 요소 생성부(241)는 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다. 따라서, 통계치 벡터의 차원은 [CN(C)+1]의 크기를 가질 수 있다.
키 데이터가 [D(M(A)), D(M(B))]의 순서쌍으로 설정됨에 따라, BKS 요소 생성부(241)는 키 데이터를 구성하는 순서쌍[D(M(A)), D(M(B))] 각각에 대한 통계치 벡터를 구성할 수 있다.
맵핑부(243)는 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시킬 수 있다.
이와 같이, 제 1 학습 모델의 인식 결과 및 제 2 학습 모델의 인식 결과를 BKS 방식으로 결합(Cascade)하여 분류함수를 생성하고 이후의 추론 과정에 적용할 수 있다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
초기 학습 데이터 집합 (A)이 구성됨에 따라(S101), 데이터 인식 장치(20)의 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다(S103).
이 후 관찰 데이터가 제공됨에 따라, 데이터 인식 장치(20)의 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다(S105).
단계 S105의 인식 결과(D(M(A))는 판단부(230)에서 실제 데이터와 비교하는 방식으로 평가되어 관찰 데이터에 대한 판단 결과가 판단 결과치(GT(k))로 제공될 수 있다(S107).
관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.
관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다(S109).
데이터 인식 장치(20)의 학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다(S111). 그리고, 추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.
이후, 데이터 인식 장치(20)의 판단부(230)는 갱신 학습 데이터 집합(B)에 대한 인식 결과(D(M(B))를 평가한 판단 결과를 판단 결과치(GT(k))로 출력할 수 있다(S115).
데이터 인식 장치(20)의 모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 단계 S115의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다(S117).
이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있고(S119), 인식 결과는 판단부(230)에서 평가될 수 있다(S121).
관찰 데이터의 수가 기 설정된 기준값 이상 수집되면 단계 S109로 복귀하여 학습 모델을 갱신하는 과정이 반복될 수 있다.
일 실시예에서, 학습 모델을 갱신하는 단계(S117)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출하는 단계일 수 있다.
일 실시예에서, 분류함수(f)를 도출하기 위해 BKS 방식을 이용할 수 있으나 이에 한정되는 것은 아니다.
일 실시예에서, 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.
그리고, 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다.
BKS 요소가 구성되면, 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시켜 분류함수를 도출할 수 있다.
따라서, 관찰 대상 데이터를 누적하여 저장할 필요가 없이, 이전 학습 단계의 학습 모델을 이용하여 모델을 갱신할 수 있으므로, 학습기반 데이터 처리 시스템(10)의 데이터 저장량 및 연산량을 최소화할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 적어도 하나의 하드웨어 칩 형태로 제작되어 학습기반 데이터처리 시스템(10)에 탑재될 수 있다. 예를 들어, 데이터 인식 장치(20)는 인공 지능을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 범용 프로세서(CPU 또는 application processor) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 학습기반 데이터 처리 시스템(10)에 탑재될 수 있다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 학습기반 데이터 처리 시스템
20 : 데이터 인식 장치

Claims (20)

  1. 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서,
    제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되고,
    상기 학습 데이터 집합에 포함된 원소들을 학습하여 상기 학습 모델을 생성하는 학습부;
    상기 관찰 데이터에 상기 학습 모델을 적용하여 인식 결과를 출력하는 추론부;
    상기 추론부의 인식 결과를 평가하여 판단 결과치를 출력하는 판단부; 및
    상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하고, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 제 2 학습 데이터 집합의 모든 원소에 대해 상기 제 1 학습 모델에 의한 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 제 2 인식 결과가 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 도출한 분류함수에 기초하여 상기 결합된 학습 모델을 생성하여 상기 추론부로 제공하는 모델 갱신부;를 포함하는 데이터 인식 장치;
    를 포함하도록 구성되는 학습기반 데이터 처리 시스템.
  2. 제 1 항에 있어서,
    상기 데이터 인식 장치는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하도록 구성되는 학습기반 데이터처리 시스템.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서,
    상기 모델 갱신부는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 학습기반 데이터 처리 시스템.
  8. 제 7 항에 있어서,
    상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템.
  9. 제 7 항에 있어서,
    상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템.
  10. 제 9 항에 있어서,
    상기 모델 갱신부는 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 학습기반 데이터 처리 시스템.
  11. 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서,
    제 1 학습 데이터 집합에 기초하여 제 1 학습 모델을 생성하는 단계;
    제 2 학습 데이터 집합에 기초하여 제 2 학습 모델 생성하는 단계; 및
    상기 제 1 학습 모델과 상기 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하는 단계;를 포함하고,
    상기 결합된 학습 모델을 생성하는 단계는, 상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하는 단계; 및
    행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 제 2 학습 데이터 집합의 모든 원소에 대해 상기 제 1 학습 모델에 의한 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 제 2 인식 결과가 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 도출한 분류함수에 기초하여 상기 결합된 학습 모델을 생성하는 단계;
    를 더 포함하도록 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
  12. 제 11 항에 있어서,
    상기 학습 모델을 생성하는 단계는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하는 단계인 학습기반 데이터처리 시스템의 모델 갱신 방법.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제 11 항에 있어서,
    상기 결합된 학습 모델을 생성하는 단계는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
  18. 제 17 항에 있어서,
    상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
  19. 제 17 항에 있어서,
    상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
  20. 제 19 항에 있어서,
    상기 결합된 학습 모델을 생성하는 단계는, 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
KR1020190037865A 2019-04-01 2019-04-01 학습기반 데이터 처리 시스템 및 모델 갱신 방법 KR102200809B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190037865A KR102200809B1 (ko) 2019-04-01 2019-04-01 학습기반 데이터 처리 시스템 및 모델 갱신 방법
US16/677,694 US11556760B2 (en) 2019-04-01 2019-11-08 Learning-based data processing system and model update method
CN201911105993.8A CN111798001A (zh) 2019-04-01 2019-11-13 基于学习的数据处理***及模型更新方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190037865A KR102200809B1 (ko) 2019-04-01 2019-04-01 학습기반 데이터 처리 시스템 및 모델 갱신 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200168298A Division KR102222072B1 (ko) 2020-12-04 2020-12-04 학습기반 데이터 처리 시스템 및 모델 갱신 방법

Publications (2)

Publication Number Publication Date
KR20200116279A KR20200116279A (ko) 2020-10-12
KR102200809B1 true KR102200809B1 (ko) 2021-01-12

Family

ID=72606309

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190037865A KR102200809B1 (ko) 2019-04-01 2019-04-01 학습기반 데이터 처리 시스템 및 모델 갱신 방법

Country Status (3)

Country Link
US (1) US11556760B2 (ko)
KR (1) KR102200809B1 (ko)
CN (1) CN111798001A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102200809B1 (ko) * 2019-04-01 2021-01-12 주식회사 엘렉시 학습기반 데이터 처리 시스템 및 모델 갱신 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019214A1 (en) 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8805861B2 (en) * 2008-12-09 2014-08-12 Google Inc. Methods and systems to train models to extract and integrate information from data sources
KR102139931B1 (ko) * 2013-03-14 2020-07-31 삼성전자주식회사 연역적 추론과 귀납적 추론을 결합한 상황 인지 장치 및 방법
KR102288280B1 (ko) * 2014-11-05 2021-08-10 삼성전자주식회사 영상 학습 모델을 이용한 영상 생성 방법 및 장치
KR102601848B1 (ko) * 2015-11-25 2023-11-13 삼성전자주식회사 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치
KR102031123B1 (ko) * 2016-12-28 2019-11-08 주식회사 엘렉시 이상패턴 감지 시스템 및 방법
US10783561B2 (en) * 2017-01-31 2020-09-22 Walmart Apollo, Llc Systems and methods for optimizing targeted advertising through social media interactions
US11049018B2 (en) * 2017-06-23 2021-06-29 Nvidia Corporation Transforming convolutional neural networks for visual sequence learning
US10963737B2 (en) * 2017-08-01 2021-03-30 Retina-Al Health, Inc. Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
US20190043193A1 (en) * 2017-08-01 2019-02-07 Retina-Ai Llc Systems and Methods Using Weighted-Ensemble Supervised-Learning for Automatic Detection of Retinal Disease from Tomograms
JP6976360B2 (ja) * 2018-01-30 2021-12-08 富士フイルム株式会社 データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム
US11429823B1 (en) * 2018-03-15 2022-08-30 Ca, Inc. Systems and methods for dynamically augmenting machine learning models based on contextual factors associated with execution environments
US10824721B2 (en) * 2018-05-22 2020-11-03 International Business Machines Corporation Detecting and delaying effect of machine learning model attacks
US11531934B2 (en) * 2018-05-31 2022-12-20 Kyndryl, Inc. Machine learning (ML) modeling by DNA computing
US11468291B2 (en) * 2018-09-28 2022-10-11 Nxp B.V. Method for protecting a machine learning ensemble from copying
TW202018727A (zh) * 2018-11-09 2020-05-16 財團法人工業技術研究院 整體式學習預測方法與系統
US11182707B2 (en) * 2018-11-19 2021-11-23 Rimini Street, Inc. Method and system for providing a multi-dimensional human resource allocation adviser
US11410056B1 (en) * 2018-11-20 2022-08-09 American Airlines, Inc. Predictive sensor system for aircraft engines with graphical user interface
US11010237B2 (en) * 2019-02-08 2021-05-18 Accenture Global Solutions Limited Method and system for detecting and preventing an imminent failure in a target system
US11106789B2 (en) * 2019-03-05 2021-08-31 Microsoft Technology Licensing, Llc Dynamic cybersecurity detection of sequence anomalies
WO2020197601A1 (en) * 2019-03-26 2020-10-01 Hrl Laboratories, Llc Systems and methods for forecast alerts with programmable human-machine hybrid ensemble learning
KR102200809B1 (ko) * 2019-04-01 2021-01-12 주식회사 엘렉시 학습기반 데이터 처리 시스템 및 모델 갱신 방법
US20200334524A1 (en) * 2019-04-17 2020-10-22 Here Global B.V. Edge learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019214A1 (en) 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training

Also Published As

Publication number Publication date
US11556760B2 (en) 2023-01-17
CN111798001A (zh) 2020-10-20
KR20200116279A (ko) 2020-10-12
US20200311516A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US10963783B2 (en) Technologies for optimized machine learning training
US10289471B2 (en) Ranking causal anomalies via temporal and dynamical analysis on vanishing correlations
Zhang et al. Dynamic extreme learning machine and its approximation capability
Pratama et al. Parsimonious random vector functional link network for data streams
KR20200022739A (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
US20200193075A1 (en) System and method for constructing a mathematical model of a system in an artificial intelligence environment
CN110942142B (zh) 神经网络的训练及人脸检测方法、装置、设备和存储介质
JP6892424B2 (ja) ハイパーパラメータチューニング方法、装置及びプログラム
Xing et al. Predicting evolving chaotic time series with fuzzy neural networks
EP3607496A1 (en) Conditional graph execution based on prior simplified graph execution
KR102200809B1 (ko) 학습기반 데이터 처리 시스템 및 모델 갱신 방법
Bhatt et al. Policy gradient using weak derivatives for reinforcement learning
CN114358317A (zh) 基于机器学习框架的数据分类方法及相关设备
Tembine Mean field stochastic games: Convergence, Q/H-learning and optimality
Downey et al. Practical learning of predictive state representations
KR102222072B1 (ko) 학습기반 데이터 처리 시스템 및 모델 갱신 방법
CN112686375A (zh) 一种神经网络模型的生成方法及装置
CN117370913A (zh) 光伏***中异常数据的检测方法、装置以及设备
JP2023123636A (ja) ハイパーパラメータチューニング方法、装置及びプログラム
JP7196933B2 (ja) 学習装置および学習方法
JP6190771B2 (ja) パラメータ推定方法、装置、及びプログラム
CN110858504A (zh) 产生化学结构的方法、神经网络设备和非瞬时计算机可读的记录介质
CN114611673A (zh) 神经网络压缩方法、装置、设备及可读存储介质
CN113688191A (zh) 特征数据生成方法、电子设备、存储介质及程序产品
Soto et al. Modeling with copulas and vines in estimation of distribution algorithms

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant