KR102222072B1 - Apparatus for Processing Data based on Learning and Method for Update of Model - Google Patents

Apparatus for Processing Data based on Learning and Method for Update of Model Download PDF

Info

Publication number
KR102222072B1
KR102222072B1 KR1020200168298A KR20200168298A KR102222072B1 KR 102222072 B1 KR102222072 B1 KR 102222072B1 KR 1020200168298 A KR1020200168298 A KR 1020200168298A KR 20200168298 A KR20200168298 A KR 20200168298A KR 102222072 B1 KR102222072 B1 KR 102222072B1
Authority
KR
South Korea
Prior art keywords
learning
learning model
recognition result
model
data set
Prior art date
Application number
KR1020200168298A
Other languages
Korean (ko)
Other versions
KR20200142487A (en
Inventor
서장원
Original Assignee
주식회사 엘렉시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘렉시 filed Critical 주식회사 엘렉시
Priority to KR1020200168298A priority Critical patent/KR102222072B1/en
Publication of KR20200142487A publication Critical patent/KR20200142487A/en
Application granted granted Critical
Publication of KR102222072B1 publication Critical patent/KR102222072B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치를 포함하도록 구성될 수 있다.A learning-based data processing system according to an embodiment of the present technology is a learning-based data processing system that generates a learning model by learning a learning data set, recognizes observation data according to the learning model, and provides a result. It may be configured to include a data recognition device configured to generate a combined learning model by combining the first learning model generated based on the set and the second learning model generated based on the second training data set.

Description

학습기반 데이터 처리 시스템 및 모델 갱신 방법{Apparatus for Processing Data based on Learning and Method for Update of Model}Apparatus for Processing Data based on Learning and Method for Update of Model}

본 기술은 데이터 처리 기술에 관한 것으로, 보다 구체적으로는 학습기반 데이터 처리 시스템 및 모델 갱신 방법에 관한 것이다.The present technology relates to a data processing technology, and more particularly, to a learning-based data processing system and a model update method.

기계학습은 인공지능 시스템을 구현하는 접근 방식의 하나이다.Machine learning is one of the approaches to implementing artificial intelligence systems.

인공 지능 시스템은 다양한 환경에서 수집된 방대한 데이터를 분석하여 활용하며 자동차, 이미지 처리, 음성 처리, 의료, 보안, 금융 등 그 적용 범위가 날로 확대되고 있다.Artificial intelligence systems analyze and utilize vast amounts of data collected in various environments, and their application range is expanding day by day, such as automobiles, image processing, voice processing, medical care, security, and finance.

인공 지능 시스템은 해결할 문제가 정의되면 이를 해결하기 위한 데이터를 수집 및 가공하여 데이터 집합을 구성한다. 데이터 집합은 문제 해결에 적합한 방법론, 예를 들어 신경망 방법론에 따라 학습(모델링)되어 학습 파라미터(모델)가 도출된다. 그리고, 제공(feeding)되는 데이터에 대해 학습 모델을 적용하여 결과를 추론, 즉 입력 데이터를 인식한다.When a problem to be solved is defined, the artificial intelligence system collects and processes data to solve the problem to form a data set. The data set is trained (modeled) according to a methodology suitable for problem solving, for example, a neural network methodology to derive a learning parameter (model). Then, by applying a learning model to the data to be fed, the result is inferred, that is, the input data is recognized.

추론 과정에서 제공되는 데이터의 수가 유의미한 수준이 되면 학습 모델을 갱신할 수 있다.When the number of data provided in the inference process reaches a meaningful level, the learning model can be updated.

방대한 양의 데이터를 분석하여 학습 모델을 구축하기 위하여 시스템의 연산량이 증가하고 누적되는 데이터를 계속해서 저장하기 위한 대용량 스토리지 장치가 필요하다.In order to analyze a large amount of data and construct a learning model, a large-capacity storage device is required to continuously store the accumulated data and the amount of computation of the system increases.

본 기술의 실시예는 연산량 및 데이터 저장량을 최소화할 수 있는 학습기반 데이터 처리 시스템 및 모델 갱신 방법을 제공할 수 있다.An embodiment of the present technology may provide a learning-based data processing system and a model update method capable of minimizing the amount of computation and data storage.

본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치;를 포함하도록 구성될 수 있다.A learning-based data processing system according to an embodiment of the present technology is a learning-based data processing system that generates a learning model by learning a learning data set, recognizes observation data according to the learning model, and provides a result. And a data recognition device configured to generate a combined learning model by combining the first learning model generated based on the set and the second learning model generated based on the second training data set.

본 기술의 일 실시예에 의한 모델 갱신 방법은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서, 제 1 학습 데이터 집합에 기초하여 제 1 학습 모델을 생성하는 단계; 제 2 학습 데이터 집합에 기초하여 제 2 학습 모델 생성하는 단계; 및 상기 제 1 학습 모델과 상기 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하는 단계;를 포함하도록 구성될 수 있다.A model update method according to an embodiment of the present technology is a model update method of a learning-based data processing system that generates a learning model by learning a training data set, recognizes observation data according to the learning model, and provides a result. Generating a first learning model based on the training data set; Generating a second learning model based on a second training data set; And generating a combined learning model by combining the first learning model and the second learning model.

본 기술에 의하면, 분석을 위해 제공되는 모든 데이터를 저장할 필요가 없다. 또한, 결합된 학습 모델에 기초하여 새로 제공되는 데이터를 학습하므로 데이터 저장량 및 연산량을 최소화할 수 있다.With this technique, there is no need to store all the data provided for analysis. In addition, since newly provided data is learned based on the combined learning model, the amount of data storage and computation can be minimized.

도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of a learning-based data processing system according to an embodiment.
2 is a block diagram of an apparatus for recognizing data according to an exemplary embodiment.
3 is a conceptual diagram illustrating a method of generating an initial model according to an embodiment.
4 is a conceptual diagram illustrating a model update method according to an embodiment.
5 is a configuration diagram of a model update unit according to an embodiment.
6 is a flowchart illustrating a method of updating a model according to an exemplary embodiment.

이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.Hereinafter, embodiments of the present technology will be described in more detail with reference to the accompanying drawings.

도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.1 is a block diagram of a learning-based data processing system according to an embodiment.

도 1을 참조하면, 일 실시예에 의한 학습기반 데이터 처리 시스템(10)은 프로세서(110), ROM(120), RAM(130), 스토리지(140) 및 인터페이스부(IF, 150)를 포함할 수 있다.1, the learning-based data processing system 10 according to an embodiment includes a processor 110, a ROM 120, a RAM 130, a storage 140, and an interface unit (IF, 150). I can.

프로세서(110)는 학습기반 데이터 처리 시스템(10)이 동작하는 데 필요한 프로그램 코드를 해독 및 연산하여 학습기반 데이터 처리 시스템(10)의 제반 동작을 제어할 수 있다.The processor 110 may control all operations of the learning-based data processing system 10 by decoding and calculating program codes required for the learning-based data processing system 10 to operate.

ROM(120)은 학습기반 데이터 처리 시스템(10)의 동작에 필요한 각종 시스템 데이터, 펌웨어 코드, 소프트웨어 코드 등을 저장할 수 있다.The ROM 120 may store various system data, firmware codes, software codes, etc. necessary for the operation of the learning-based data processing system 10.

RAM(130)은 프로세서(110)의 동작에 수반되는 데이터를 저장하도록 구성될 수 있다.The RAM 130 may be configured to store data accompanying the operation of the processor 110.

스토리지(140)는 학습기반 데이터 처리 시스템(10)에서 사용하기 위한 데이터가 수집되는 반도체 기억장치일 수 있다.The storage 140 may be a semiconductor memory device in which data for use in the learning-based data processing system 10 is collected.

인터페이스부(150)는 학습기반 데이터 처리 시스템(10)이 통신망을 통해 데이터를 송수신할 수 있는 통신망 인터페이스, 운용자 또는 작업자가 학습기반 데이터 처리 시스템(10)에 접근할 수 있는 사용자 인터페이스를 포함할 수 있다.The interface unit 150 may include a communication network interface through which the learning-based data processing system 10 can transmit and receive data through a communication network, and a user interface through which an operator or operator can access the learning-based data processing system 10. have.

일 실시예에서, 프로세서(110)는 데이터 인식 장치(20)를 포함할 수 있다.In one embodiment, the processor 110 may include a data recognition device 20.

데이터 인식 장치(20)는 입력되는 데이터 집합, 즉 학습 데이터 집합을 모델링하여 학습 모델을 생성할 수 있다. 그리고, 관찰(feeding)되는 데이터에 대해 학습 모델을 적용하여 인식하여 출력할 수 있다.The data recognition apparatus 20 may generate a learning model by modeling an input data set, that is, a training data set. In addition, the data to be fed can be recognized and output by applying a learning model.

데이터 인식 장치(20)는 추론 과정에서 제공되는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 새로운 학습 데이터 집합인 갱신 학습 데이터 집합을 구성하고, 학습 모델을 갱신할 수 있다.When the number of observation data provided in the inference process reaches a preset reference value or more, the data recognition apparatus 20 may configure an updated training data set, which is a new training data set, and update the training model.

일 실시예에서, 데이터 인식 장치(20)는 이전 시점의 학습 데이터 집합에 기초하여 생성한 학습 모델(제 1 학습 모델)과, 갱신 학습 데이터 집합에 기초하여 생성한 학습 모델(제 2 학습 모델)을 결합하여 결합된 학습 모델을 생성할 수 있다.In one embodiment, the data recognition device 20 includes a learning model (first learning model) generated based on a training data set at a previous point of view, and a learning model generated based on an updated training data set (second learning model). We can create a combined learning model by combining.

즉, 학습 데이터가 추가되어 학습 모델을 갱신할 때, 학습 데이터를 누적하여 학습하는 것이 아니라, 학습 데이터 집합별 학습 모델을 이용하여 모델을 갱신할 수 있다.That is, when the learning model is updated by adding training data, the model may be updated using the training model for each training data set, rather than accumulating and training the training data.

일 실시예에서, 데이터 인식 장치(20)는 학습 모델을 생성하기 위하여 신경망 방법론을 이용할 수 있으나 이에 한정되는 것은 아니다.In an embodiment, the data recognition apparatus 20 may use a neural network methodology to generate a learning model, but is not limited thereto.

제 1 학습 모델을 생성하기 위한 학습 방법과, 제 2 학습 모델을 생성하기 위한 학습 방법은 같거나 상이할 수 있다.The learning method for generating the first learning model and the learning method for generating the second learning model may be the same or different.

본 기술에 의하면, 갱신되는 학습 데이터를 누적해서 저장하지 않고 학습 모델만을 저장하므로 데이터 저장량 및 연산량을 최소화할 수 있다.According to the present technology, since only the learning model is stored without accumulating and storing updated training data, the amount of data storage and the amount of computation can be minimized.

데이터 인식 장치(20)는 소프트웨어 모듈 또는 하드웨어 모듈, 또는 소프트웨어와 하드웨어가 결합된 형태 등으로 제작될 수 있다.The data recognition device 20 may be manufactured as a software module, a hardware module, or a combination of software and hardware.

도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.2 is a block diagram of an apparatus for recognizing data according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 의한 데이터 인식 장치(20)는 학습부(210), 추론부(220), 판단부(230) 및 모델 갱신부(240)를 포함할 수 있다.Referring to FIG. 2, the apparatus 20 for recognizing data according to an exemplary embodiment may include a learning unit 210, an inference unit 220, a determination unit 230, and a model update unit 240.

학습부(210)는 입력되는 학습 데이터 집합에 포함된 원소들을 학습하여 학습 모델(M(.))을 생성하도록 구성될 수 있다.The learning unit 210 may be configured to generate a learning model (M(.)) by learning elements included in the input training data set.

일 실시예에서, 학습부(210)는 인공 신경망 방식으로 데이터를 학습하여 학습 모델(M(.))을 생성할 수 있다.In an embodiment, the learning unit 210 may generate a learning model (M(.)) by learning data using an artificial neural network method.

인공 신경망 방식은 입력 데이터에 가중치를 적용하여 결과를 추정하고, 추정값으로부터 오차를 검출하여 가중치를 보정하는 과정을 반복하여 데이터를 모델링하는 방식을 의미한다.The artificial neural network method refers to a method of modeling data by repeating the process of estimating a result by applying a weight to input data, and correcting the weight by detecting an error from the estimated value.

추론부(220)는 관찰 데이터에 학습 모델(M(.))을 적용하여 관찰 데이터의 인식 결과(D(M(.))를 출력할 수 있다.The inference unit 220 may apply a learning model (M(.)) to the observation data and output a recognition result D(M(.)) of the observation data.

판단부(230)는 입력 데이터 및 추론부(220)의 인식 결과(D(M(.))에 기초하여 분석 및 판단하고 판단 결과치(Ground Truth, GT(.))를 출력할 수 있다.The determination unit 230 may analyze and determine based on the input data and the recognition result D(M(.)) of the inference unit 220, and output a determination result (Ground Truth, GT(.)).

모델 갱신부(240)는 이전 시점의 학습 데이터 집합으로부터 생성된 제 1 학습 모델 및 현재 시점의 갱신 학습 데이터 집합으로부터 생성된 제 2 학습 모델의 인식 결과를 결합하여 결합된 학습 모델(M(AN))을 생성하고 추론부(220)로 제공하도록 구성될 수 있다.Model updating section 240 is a first learning model and the current learning model coupled to combine the recognition results of the second study model generated from the updated training data set at the time generated from a set of training data of the previous time point (M (A N )) and may be configured to provide it to the reasoning unit 220.

N은 학습 모델의 갱신 차수를 의미할 수 있다.N may mean the update order of the learning model.

일 실시예에서, 모델 갱신부(240)는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 갱신 학습 데이터 집합을 구성할 수 있다. 갱신 학습 데이터 집합이 구성되면 제 2 학습 모델을 생성하고, 이전 시점에 생성한 제 1 학습 모델과 제 2 학습 모델의 인식 결과를 결합하여 학습 모델을 갱신할 수 있다.In an embodiment, the model update unit 240 may configure an updated training data set when the number of observation data exceeds a preset reference value. When the updated training data set is configured, a second training model may be generated, and the training model may be updated by combining the recognition results of the first training model and the second training model generated at a previous point in time.

도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.3 is a conceptual diagram illustrating a method of generating an initial model according to an embodiment.

도 3을 참조하면, 초기 학습 데이터 집합(A)이 구성됨에 따라, 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다.Referring to FIG. 3, as the initial training data set (A) is configured, the learning unit 210 models each element (k) of the initial training data set (A) to form a first learning model (M(A)). Can be created.

이 후 관찰 데이터가 제공됨에 따라, 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다.Thereafter, as the observation data is provided, the inference unit 220 may output a recognition result D(M(A)) based on the first learning model M(A).

추론부(220)의 인식 결과(D(M(A))는 판단부(230)에서 평가되어 판단 결과치(GT(k))가 생성될 수 있다.The recognition result D(M(A)) of the inference unit 220 may be evaluated by the determination unit 230 to generate a determination result value GT(k).

관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.Until the number of observation data is collected by a preset number, the data recognition device 20 recognizes observation data according to the first learning model M(A) generated based on the initial learning data set.

도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a model update method according to an embodiment.

관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다.When the number of observation data is collected more than a preset reference value, an updated learning data set (B) may be configured.

학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다.The learning unit 210 may generate a second learning model M(B) by modeling each element k of the updated training data set B.

추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.The inference unit 220 may output the recognition result D(M(B)) by applying the second learning model M(B) to each element k of the updated training data set B.

판단부(230)는 추론부(220)의 인식 결과(D(M(B))를 평가하고 판단 결과치(GT(k), k는 갱신 학습 데이터 집합(B)의 원소)를 출력할 수 있다.The determination unit 230 may evaluate the recognition result D(M(B)) of the inference unit 220 and output a determination result value (GT(k), k is an element of the updated learning data set (B)). .

모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 판단부(230)의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다.The model update unit 240 includes a recognition result (D(M(A))) based on the first learning model (M(A)) and a recognition result (D(M()) based on the second learning model (M(B)). B))) and the combined learning model M(A N ) based on the determination result GT(k) of the determination unit 230 may be generated.

이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있다.Now, the inference unit 220 may recognize data according to the combined learning model M(A N ) until the number of observation data is collected above a preset reference value.

일 실시예에서, 모델 갱신부(240)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출할 수 있다. 즉, 갱신 학습 데이터 집합의 모든 원소(k)에 대해 상기 제 1 학습 모델에 의한 인식 결과(D(M(A),k)) 및 상기 제 2 학습 모델에 의한 인식 결과(D(M(B),k))가 판단 결과치 GT(k)와 동일해지도록 하는 분류함수(f)를 도출할 수 있다.In one embodiment, the model update unit 240 is f((D(M(A),k)), (D(M(B),k) for all elements (k) of the updated training data set (B). ))}==GT(k), a classification function (f) can be derived. That is, the recognition result (D(M(A),k)) by the first learning model and the recognition result by the second learning model (D(M(B)) for all elements (k) of the updated training data set A classification function (f) can be derived that makes ),k)) equal to the judgment result GT(k).

분류함수는 D(M(.))가 유한집합의 원소(c)로 맵핑되는 함수일 수 있다. C는 c의 집합이며, CN(C)는 집합 C의 크기를 의미한다.The classification function may be a function in which D(M(.)) is mapped to an element (c) of a finite set. C is a set of c, and CN(C) refers to the size of set C.

그리고, 결합된 학습 모델(M(AN)) = f{(D(M(A),k)), (D(M(B),k))}로 정의할 수 있다.And, it can be defined as a combined learning model (M(A N )) = f{(D(M(A),k)), (D(M(B),k))}.

도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.5 is a configuration diagram of a model update unit according to an embodiment.

도 5를 참조하면, 모델 갱신부(240)는 BKS 요소 생성부(241) 및 맵핑부(243)를 포함할 수 있다.Referring to FIG. 5, the model update unit 240 may include a BKS element generation unit 241 and a mapping unit 243.

일 실시예에서, 결합된 학습 모델(M(AN))을 도출하기 위해, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식을 이용할 수 있다.In an embodiment, in order to derive the combined learning model M(A N ), a Behavior Knowledge Space (BKS) method may be used.

BKS 방식은 추론부(220)의 인식 결과 각각에 대한 판단 결과치를 테이블화하여 두고, 새로운(관찰) 데이터가 유입되면 테이블을 참조하여 인식 결과를 제공하는 방식을 의미한다.The BKS method refers to a method in which the determination result values for each recognition result of the inference unit 220 are tabled, and when new (observation) data is introduced, the recognition result is provided by referring to the table.

BKS 방식에서, 추론부(220)의 인식 결과는 키 데이터가 될 수 있고, 각 키 데이터 별로 통계치 벡터를 산출하여 BKS 요소들을 구성할 수 있다.In the BKS method, the recognition result of the inference unit 220 may be key data, and BKS elements may be configured by calculating a statistic vector for each key data.

BKS : BKS 요소들의 집합BKS: A set of BKS elements

BKS 요소 : {(키데이터, 통계치벡터)}BKS element: {(key data, statistical value vector)}

일 실시예에서, BKS 요소 생성부(241)는 이전 시점의 학습 데이터 집합(A) 및 갱신 학습 데이터 집합(B)의 모든 데이터(k)에 대한 추론을 실시하여 얻어진 인식 결과를 바탕으로 BKS 요소를 구성할 수 있다.In one embodiment, the BKS element generation unit 241 performs an inference on all data (k) of the training data set (A) and the updated training data set (B) at the previous point in time, and based on the recognition result obtained, the BKS element Can be configured.

일 실시예에서, BKS 요소 생성부(241)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.In one embodiment, the BKS element generator 241 recognizes a recognition result based on a first learning model (M(A)) (D(M(A))) and a recognition based on a second learning model (M(B)) An ordered pair of results (D(M(B))) can be set as key data.

키데이터 = [D(M(A)), D(M(B))]Key data = [D(M(A)), D(M(B))]

BKS 요소 생성부(241)는 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다. 따라서, 통계치 벡터의 차원은 [CN(C)+1]의 크기를 가질 수 있다.In the training data set, the BKS element generation unit 241 [############################################### size rate The number of times c] can be set as a statistical vector. Therefore, the dimension of the statistic vector may have a size of [CN(C)+1].

키 데이터가 [D(M(A)), D(M(B))]의 순서쌍으로 설정됨에 따라, BKS 요소 생성부(241)는 키 데이터를 구성하는 순서쌍[D(M(A)), D(M(B))] 각각에 대한 통계치 벡터를 구성할 수 있다.As the key data is set as an ordered pair of [D(M(A)), D(M(B))], the BKS element generating unit 241 comprises an ordered pair [D(M(A))) constituting the key data, A statistical vector for each of D(M(B))] can be constructed.

맵핑부(243)는 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시킬 수 있다.The mapping unit 243 is a BKS element whose key data is (D(M(A),k), D(M(B),k)), from the second element to the last element of the statistic vector-the distribution function (f). The element (c) having the maximum value among the number of times when the corresponding key data calculated for all the elements (c) appears, GT(B) = c-can be mapped to the corresponding key data.

이와 같이, 제 1 학습 모델의 인식 결과 및 제 2 학습 모델의 인식 결과를 BKS 방식으로 결합(Cascade)하여 분류함수를 생성하고 이후의 추론 과정에 적용할 수 있다.In this way, the recognition result of the first learning model and the recognition result of the second learning model are cascaded in a BKS method to generate a classification function, which can be applied to a subsequent inference process.

도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of updating a model according to an exemplary embodiment.

초기 학습 데이터 집합 (A)이 구성됨에 따라(S101), 데이터 인식 장치(20)의 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다(S103).As the initial training data set (A) is configured (S101), the learning unit 210 of the data recognition device 20 models each element (k) of the initial training data set (A) to form a first learning model (M (A)) can be generated (S103).

이 후 관찰 데이터가 제공됨에 따라, 데이터 인식 장치(20)의 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다(S105).Thereafter, as the observation data is provided, the inference unit 220 of the data recognition device 20 may output a recognition result D(M(A)) based on the first learning model M(A) ( S105).

단계 S105의 인식 결과(D(M(A))는 판단부(230)에서 실제 데이터와 비교하는 방식으로 평가되어 관찰 데이터에 대한 판단 결과가 판단 결과치(GT(k))로 제공될 수 있다(S107).The recognition result D(M(A)) of step S105 is evaluated in a manner that the determination unit 230 compares it with actual data, so that the determination result of the observation data may be provided as a determination result value GT(k) ( S107).

관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.Until the number of observation data is collected by a preset number, the data recognition device 20 recognizes observation data according to the first learning model M(A) generated based on the initial learning data set.

관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다(S109).When the number of observation data is collected more than a preset reference value, an updated learning data set B may be configured (S109).

데이터 인식 장치(20)의 학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다(S111). 그리고, 추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.The learning unit 210 of the data recognition apparatus 20 may generate a second learning model M(B) by modeling each element k of the updated training data set B (S111). In addition, the inference unit 220 may apply the second learning model (M(B)) to each element (k) of the updated training data set (B) and output a recognition result (D(M(B))). .

이후, 데이터 인식 장치(20)의 판단부(230)는 갱신 학습 데이터 집합(B)에 대한 인식 결과(D(M(B))를 평가한 판단 결과를 판단 결과치(GT(k))로 출력할 수 있다(S115).Thereafter, the determination unit 230 of the data recognition device 20 outputs the determination result of evaluating the recognition result D(M(B)) for the updated learning data set B as a determination result value GT(k). It can be done (S115).

데이터 인식 장치(20)의 모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 단계 S115의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다(S117).The model update unit 240 of the data recognition device 20 is based on the recognition result (D(M(A))) based on the first learning model (M(A)) and the second learning model (M(B)). A combined learning model M(A N ) may be generated based on the recognition result D(M(B)) and the determination result GT(k) in step S115 (S117).

이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있고(S119), 인식 결과는 판단부(230)에서 평가될 수 있다(S121). Now, the inference unit 220 can recognize the data according to the combined learning model (M(A N )) until the number of observation data is collected above the preset reference value (S119), and the recognition result is the determination unit ( 230) can be evaluated (S121).

관찰 데이터의 수가 기 설정된 기준값 이상 수집되면 단계 S109로 복귀하여 학습 모델을 갱신하는 과정이 반복될 수 있다.When the number of observation data is collected more than a preset reference value, the process of updating the learning model by returning to step S109 may be repeated.

일 실시예에서, 학습 모델을 갱신하는 단계(S117)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출하는 단계일 수 있다.In one embodiment, the step of updating the learning model (S117) is f((D(M(A),k)), (D(M(B)) for all elements (k) of the updated training data set (B). It may be a step of deriving a classification function (f) of ),k))}==GT(k).

일 실시예에서, 분류함수(f)를 도출하기 위해 BKS 방식을 이용할 수 있으나 이에 한정되는 것은 아니다.In one embodiment, the BKS method may be used to derive the classification function f, but is not limited thereto.

일 실시예에서, 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.In one embodiment, the recognition result based on the first learning model (M(A)) (D(M(A))) and the recognition result based on the second learning model (M(B)) (D(M(B)) )) can be set as key data.

그리고, 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다.And, in the training data set [the number of times the corresponding key data appeared in the updated training data set (B), the number of times when the corresponding key data appeared for all the elements (c) of the classification function, GT(B) = c] is a statistic value. Can be set as a vector.

BKS 요소가 구성되면, 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시켜 분류함수를 도출할 수 있다.When the BKS element is formed, among the BKS elements whose key data is (D(M(A),k), D(M(B),k)), the second element to the last element of the statistic vector-the distribution function (f) The classification function can be derived by mapping the element (c) having the maximum value among the number of times when the corresponding key data calculated for all the elements (c) appears, where GT(B) = c-to the corresponding key data.

따라서, 관찰 대상 데이터를 누적하여 저장할 필요가 없이, 이전 학습 단계의 학습 모델을 이용하여 모델을 갱신할 수 있으므로, 학습기반 데이터 처리 시스템(10)의 데이터 저장량 및 연산량을 최소화할 수 있다.Accordingly, it is not necessary to accumulate and store observational data, and since the model can be updated using the learning model of the previous learning step, the amount of data storage and the amount of computation of the learning-based data processing system 10 can be minimized.

일 실시예에서, 데이터 인식 장치(20)는 적어도 하나의 하드웨어 칩 형태로 제작되어 학습기반 데이터처리 시스템(10)에 탑재될 수 있다. 예를 들어, 데이터 인식 장치(20)는 인공 지능을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 범용 프로세서(CPU 또는 application processor) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 학습기반 데이터 처리 시스템(10)에 탑재될 수 있다.In an embodiment, the data recognition device 20 may be manufactured in the form of at least one hardware chip and mounted on the learning-based data processing system 10. For example, the data recognition device 20 may be manufactured in the form of a dedicated hardware chip for artificial intelligence, or as a part of a general-purpose processor (CPU or application processor) or a graphics dedicated processor (GPU) to provide a learning-based data processing system. It can be mounted on (10).

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the embodiments described above are illustrative in all respects and should be understood as non-limiting. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

10 : 학습기반 데이터 처리 시스템
20 : 데이터 인식 장치
10: Learning-based data processing system
20: data recognition device

Claims (16)

학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서,
제 1 학습 데이터 집합에 포함된 원소들을 학습하여 제 1 학습 모델을 생성하고, 제 2 학습 데이터 집합에 포함된 원소들만을 학습하여 제 2 학습 모델을 생성하는 학습부;
상기 제 2 학습 데이터 집합에 포함된 원소 각각에 상기 제 1 학습 모델을 적용하여 제 1 인식 결과를 출력하고, 상기 제 2 학습 데이터 집합에 포함된 원소 각각에 상기 제 2 학습 모델을 적용하여 제 2 인식 결과를 출력하는 추론부;
상기 제 1 인식 결과 및 상기 제 2 인식 결과를 평가하여 판단 결과치를 출력하는 판단부; 및
상기 제 1 인식 결과 및 상기 제 2 인식 결과가, 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 도출한 분류함수에 기초하여, 결합된 학습 모델을 생성하여 상기 추론부로 제공하도록 구성되는 모델 갱신부;
를 포함하는 학습기반 데이터 처리 시스템.
As a learning-based data processing system that generates a learning model by learning a training data set, and provides results by recognizing observation data according to the learning model,
A learning unit for generating a first learning model by learning elements included in the first training data set, and generating a second learning model by learning only elements included in the second training data set;
A first recognition result is output by applying the first learning model to each element included in the second training data set, and a second learning model is applied to each element included in the second training data set. An inference unit outputting a recognition result;
A determination unit that evaluates the first recognition result and the second recognition result and outputs a determination result value; And
Based on the classification function derived so that the first recognition result and the second recognition result are the same as the determination result of the second recognition result, a combined learning model is generated and provided to the inference unit. part;
Learning-based data processing system comprising a.
제 1 항에 있어서,
상기 학습부는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하도록 구성되는 학습기반 데이터 처리 시스템.
The method of claim 1,
The learning unit is a learning-based data processing system configured to learn the training data set based on an artificial neural network.
제 1 항에 있어서,
상기 모델 갱신부는, 상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하는 학습기반 데이터 처리 시스템.
The method of claim 1,
The model update unit configures the second training data set when the number of observation data is greater than or equal to a preset reference value.
제 1 항에 있어서,
상기 모델 갱신부는, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 결합된 학습 모델을 생성하는 학습기반 데이터 처리 시스템.
The method of claim 1,
The model update unit is a learning-based data processing system that generates the combined learning model based on a behavior knowledge space (BKS) method.
제 4 항에 있어서,
상기 모델 갱신부는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 학습기반 데이터 처리 시스템.
The method of claim 4,
The model update unit is a learning-based data processing system that configures a set of BKS elements including key data and a statistical value vector for the key data.
제 5 항에 있어서,
상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템.
The method of claim 5,
The key data is a learning-based data processing system including the first recognition result and the second recognition result.
제 5 항에 있어서,
상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템.
The method of claim 5,
The statistical value vector is a learning consisting of [the number of times the key data appears in the second training data set, and the number of times that the determination result value when the key data appears for each of the elements (c) of the classification function is c] Based data processing system.
제 7 항에 있어서,
상기 모델 갱신부는 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 학습기반 데이터 처리 시스템.
The method of claim 7,
The model update unit configures the classification function by mapping an element having a maximum value among the second to last elements of the statistical vector to the key data.
학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서,
제 1 학습 데이터 집합에 포함된 원소들을 학습하여 제 1 학습 모델을 생성하는 단계;
제 2 학습 데이터 집합에 포함된 원소들만을 학습하여 제 2 학습 모델을 생성하는 단계;
상기 제 2 학습 데이터 집합에 포함된 원소 각각에 상기 제 1 학습 모델을 적용하여 제 1 인식 결과를 출력하고, 상기 제 2 학습 데이터 집합에 포함된 원소 각각에 상기 제 2 학습 모델을 적용하여 제 2 인식 결과를 출력하는 단계;
상기 제 1 인식 결과 및 상기 제 2 인식 결과를 평가하여 판단 결과치를 출력하는 단계; 및
상기 제 1 인식 결과 및 상기 제 2 인식 결과가, 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 도출한 분류함수에 기초하여, 결합된 학습 모델을 생성하는 단계;
를 포함하도록 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
As a model update method of a learning-based data processing system that generates a learning model by learning a training data set, and provides results by recognizing observation data according to the learning model,
Generating a first learning model by learning elements included in the first training data set;
Generating a second learning model by learning only the elements included in the second training data set;
A first recognition result is output by applying the first learning model to each element included in the second training data set, and a second learning model is applied to each element included in the second training data set. Outputting a recognition result;
Evaluating the first recognition result and the second recognition result and outputting a determination result value; And
Generating a combined learning model based on a classification function derived so that the first recognition result and the second recognition result become the same as the determination result of the second recognition result;
A model update method of a learning-based data processing system configured to include.
제 9 항에 있어서,
상기 제 1 학습 모델 및 상기 제 2 학습 모델을 생성하는 단계는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하는 단계인 학습기반 데이터처리 시스템의 모델 갱신 방법.
The method of claim 9,
The generating of the first learning model and the second learning model includes learning the training data set based on an artificial neural network.
제 9 항에 있어서,
상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하는 단계를 더 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 9,
And configuring the second training data set if the number of observation data is greater than or equal to a preset reference value.
제 9 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 결합된 학습 모델을 생성하는 단계인 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 9,
The generating of the combined learning model includes generating the combined learning model based on a behavior knowledge space (BKS) method.
제 12 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 12,
The generating of the combined learning model includes configuring a set of BKS elements including key data and a statistical vector for the key data.
제 13 항에 있어서,
상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 13,
The key data includes the first recognition result and the second recognition result.
제 13 항에 있어서,
상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 13,
The statistical value vector is a learning consisting of [the number of times the key data appears in the second training data set, and the number of times that the determination result value when the key data appears for each of the elements (c) of the classification function is c] Model update method of the base data processing system.
제 15 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
The method of claim 15,
The generating of the combined learning model comprises mapping an element having a maximum value among the second to last elements of the statistical vector to the key data to construct the classification function. How to update.
KR1020200168298A 2020-12-04 2020-12-04 Apparatus for Processing Data based on Learning and Method for Update of Model KR102222072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200168298A KR102222072B1 (en) 2020-12-04 2020-12-04 Apparatus for Processing Data based on Learning and Method for Update of Model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200168298A KR102222072B1 (en) 2020-12-04 2020-12-04 Apparatus for Processing Data based on Learning and Method for Update of Model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190037865A Division KR102200809B1 (en) 2019-04-01 2019-04-01 Apparatus for Processing Data based on Learning and Method for Update of Model

Publications (2)

Publication Number Publication Date
KR20200142487A KR20200142487A (en) 2020-12-22
KR102222072B1 true KR102222072B1 (en) 2021-03-03

Family

ID=74086619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200168298A KR102222072B1 (en) 2020-12-04 2020-12-04 Apparatus for Processing Data based on Learning and Method for Update of Model

Country Status (1)

Country Link
KR (1) KR102222072B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019214A1 (en) 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102139931B1 (en) * 2013-03-14 2020-07-31 삼성전자주식회사 Apparatus and Method for context awareness using deductive reasoning and inductive reasoning
KR102601848B1 (en) * 2015-11-25 2023-11-13 삼성전자주식회사 Device and method of data recognition model construction, and data recognition devicce
KR102031123B1 (en) * 2016-12-28 2019-11-08 주식회사 엘렉시 System and Method for Anomaly Pattern

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019214A1 (en) 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training

Also Published As

Publication number Publication date
KR20200142487A (en) 2020-12-22

Similar Documents

Publication Publication Date Title
US10963783B2 (en) Technologies for optimized machine learning training
US10289471B2 (en) Ranking causal anomalies via temporal and dynamical analysis on vanishing correlations
US7243086B2 (en) Methods and systems for automatically generating provably correct computer program code
Pratama et al. Parsimonious random vector functional link network for data streams
US20200193075A1 (en) System and method for constructing a mathematical model of a system in an artificial intelligence environment
CN113158685A (en) Text semantic prediction method and device, computer equipment and storage medium
Xing et al. Predicting evolving chaotic time series with fuzzy neural networks
Nápoles et al. Recurrence-aware long-term cognitive network for explainable pattern classification
CN113011529A (en) Training method, device and equipment of text classification model and readable storage medium
KR102200809B1 (en) Apparatus for Processing Data based on Learning and Method for Update of Model
Bhatt et al. Policy gradient using weak derivatives for reinforcement learning
KR102222072B1 (en) Apparatus for Processing Data based on Learning and Method for Update of Model
Tembine Mean field stochastic games: Convergence, Q/H-learning and optimality
CN112686375A (en) Neural network model generation method and device
JP2023123636A (en) Hyper parameter tuning method, device and program
López-Morales A reliable method for consistency improving of interval multiplicative preference relations expressed under uncertainty
Niina et al. The spherical hidden Markov self organizing map for learning time series data
CN113688191A (en) Feature data generation method, electronic device, storage medium, and program product
JP7230324B2 (en) Neural network learning method, computer program and computer device
Soto et al. Modeling with copulas and vines in estimation of distribution algorithms
JPWO2022038729A5 (en) RULE GENERATION DEVICE, RULE GENERATION METHOD, AND CONTROL PROGRAM
Khajavi et al. The goodness of covariance selection problem from AUC bounds
Winacott et al. Methods for the estimation of the size of lookahead tree state-space
Zhao et al. Bidirectional Deep Variational RNN for Refining Anomaly Detection of Multivariate Time Series
Rifat et al. A Systematic Approach for Enhancing Software Defect Prediction Using Machine Learning

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant