KR20200072717A - Artificial inteligence learning methods and apparatus using analysis of data frequency value - Google Patents

Artificial inteligence learning methods and apparatus using analysis of data frequency value Download PDF

Info

Publication number
KR20200072717A
KR20200072717A KR1020180160613A KR20180160613A KR20200072717A KR 20200072717 A KR20200072717 A KR 20200072717A KR 1020180160613 A KR1020180160613 A KR 1020180160613A KR 20180160613 A KR20180160613 A KR 20180160613A KR 20200072717 A KR20200072717 A KR 20200072717A
Authority
KR
South Korea
Prior art keywords
data
weight
neural network
artificial neural
input data
Prior art date
Application number
KR1020180160613A
Other languages
Korean (ko)
Other versions
KR102209505B1 (en
Inventor
이충희
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180160613A priority Critical patent/KR102209505B1/en
Publication of KR20200072717A publication Critical patent/KR20200072717A/en
Application granted granted Critical
Publication of KR102209505B1 publication Critical patent/KR102209505B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an artificial intelligence learning method and a device therefor. According to an embodiment of the present invention, the artificial intelligence learning method comprises the following steps of: obtaining a frequency according to the type of input data; calculating reputation according to the type of input data based on the frequency; classifying the input data into training data and weight data based on the reputation; and training an artificial neural network by using the training data.

Description

데이터 빈도수 분석을 통한 인공지능 학습 방법 및 장치{ARTIFICIAL INTELIGENCE LEARNING METHODS AND APPARATUS USING ANALYSIS OF DATA FREQUENCY VALUE}ARTIFICIAL INTELIGENCE LEARNING METHODS AND APPARATUS USING ANALYSIS OF DATA FREQUENCY VALUE}

아래 실시예들은 데이터 빈도수 분석을 통한 인공지능 학습 방법 및 장치 에 관한 것이다.The embodiments below relate to an artificial intelligence learning method and apparatus through data frequency analysis.

인공지능에서 좋은 인식 성능을 나타내기 위해서는 사용되는 입력 데이터의 종류가 다양하고, 그 데이터의 양이 많아야 한다. 데이터 자체의 양을 확보하기 위해서는 다양한 실험을 통하여 측정하거나, 시간적으로 오랜 기간을 측정함으로써 다소 쉽게 확보할 수 있다. 일반적으로 데이터 자체의 양은 많을수록, 실제 환경을 많이 대변하기 때문에 좋은 인식 성능을 나타낸다고 알려져 있다.In order to show good recognition performance in artificial intelligence, there are various types of input data, and the amount of data must be large. In order to secure the amount of data itself, it can be easily obtained by measuring through various experiments or by measuring a long period of time. In general, it is known that the larger the amount of data itself, the better the recognition performance because it represents the actual environment.

일반적으로 입력 데이터 종류가 증가할수록 인식 성능을 향상하지만, 잘못된 형태의 입력 데이터가 포함되면 오히려 성능이 저하 될 수도 있다. 입력 데이터 종류의 경우 일반적으로 개수가 많을수록 인식 성능을 향상되지만, 잘못된 형태의 입력 데이터가 포함되면 오히려 성능이 저하 될 수도 있다.In general, as the type of input data increases, the recognition performance improves, but if the wrong type of input data is included, performance may decrease. In the case of input data types, in general, the larger the number, the better the recognition performance, but if the wrong type of input data is included, performance may decrease.

따라서 입력 데이터로 활용 시 신중하게 고려하여 전반적인 인식 성능을 높이고, 처리 속도 부분을 줄일 필요가 있다. Therefore, it is necessary to increase overall recognition performance and reduce processing speed by carefully considering when used as input data.

실시예들은 입력 데이터로 활용 시 입력 데이터의 빈도수 분석을 통하여 이 데이터가 실제 인식 성능에 도움이 되는 분포인지를 판단하고자 한다.The embodiments try to determine whether this data is a distribution conducive to actual recognition performance through analysis of the frequency of the input data when utilized as input data.

실시예들은 입력 데이터를 학습 자료에 직접적으로 활용할 것인지, 아니면 최종 학습 결과의 가중치로 활용할 것인지를 판단하고자 한다.The embodiments are intended to determine whether to use the input data directly in the learning material or as a weight of the final learning result.

실시예들은 입력 데이터의 평탄도를 측정하고자 한다.The embodiments are intended to measure the flatness of the input data.

실시예들은 가중치 데이터의 가중치를 계산하고자 한다.The embodiments seek to calculate the weight of the weight data.

일 실시예에 따른 인공 신경망 학습 방법은 입력 데이터들의 종류에 따른 빈도수를 획득하는 단계; 상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하는 단계; 상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하는 단계; 및 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 단계를 포함한다.An artificial neural network learning method according to an embodiment may include obtaining a frequency according to types of input data; Calculating a reputation degree according to the type of the input data based on the frequency; Classifying the input data into learning data and weighting data based on the reputation; And learning an artificial neural network using the learning data.

상기 평판도를 계산하는 단계는 상기 빈도수의 평균을 계산하는 단계; 상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하는 단계; 및 상기 차이에 기초하여 상기 평판도를 계산하는 단계를 포함할 수 있다.The calculating the reputation may include calculating an average of the frequencies; Calculating a difference between the average of the frequencies and the input data; And calculating the reputation degree based on the difference.

상기 평판도를 계산하는 단계는 상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는 단계를 포함할 수 있다.The calculating of the reputation may include calculating the variance of the frequency according to the type of the input data.

상기 입력 데이터들을 상기 학습 데이터와 상기 가중치 데이터로 분류하는 단계는 상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하는 단계; 및 상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는 단계를 포함할 수 있다.The step of classifying the input data into the training data and the weighting data may include classifying the input data into the training data when the reputation is greater than a predetermined threshold; And when the reputation is smaller than a predetermined threshold, classifying the input data into the weight data.

일 실시예에 따른 인공 신경망 학습 방법은 테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하는 단계; 및 상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는 단계를 더 포함할 수 있다.An artificial neural network learning method according to an embodiment may include inputting test data into the artificial neural network to obtain result data; And obtaining output data based on the result data and the weight data.

상기 출력 데이터를 획득하는 단계는 상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하는 단계; 및 상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는 단계를 포함할 수 있다.The obtaining of the output data may include calculating a weight based on the weight data and the test data; And obtaining the output data by multiplying the weight by the result data.

상기 가중치를 계산하는 단계는 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하는 단계; 및 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는 단계를 포함할 수 있다.The calculating of the weight may include calculating a true data weight for the test data based on the frequency of the weight data; And calculating false data weights for the test data based on the frequency of the weight data.

일 실시예에 따른 인공 신경망 학습 장치는 입력 데이터들의 종류에 따른 빈도수를 획득하고, 상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하고, 상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 프로세서를 포함한다.The artificial neural network learning apparatus according to an embodiment acquires a frequency according to the type of input data, calculates a reputation according to the type of the input data based on the frequency, and based on the reputation, learns the input data And weight data, and a processor for learning an artificial neural network using the learning data.

상기 프로세서는 상기 빈도수의 평균을 계산하고, 상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하고, 상기 차이에 기초하여 상기 평판도를 계산할 수 있다.The processor may calculate the average of the frequencies, calculate the difference between the average of the frequencies and the input data, and calculate the reputation based on the difference.

상기 프로세서는 상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산할 수 있다.The processor may calculate the variance of the frequency according to the type of the input data.

상기 프로세서는 상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하고, 상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류할 수 있다.The processor may classify the input data as the learning data when the reputation is greater than a predetermined threshold, and classify the input data as the weighting data when the reputation is less than a predetermined threshold.

상기 프로세서는 테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하고, 상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득할 수 있다.The processor may acquire test data by inputting test data to the artificial neural network, and obtain output data based on the result data and the weight data.

상기 프로세서는 상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하고, 상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득할 수 있다.The processor may calculate the weight based on the weight data and the test data, and obtain the output data by multiplying the weight by the result data.

상기 프로세서는 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다.The processor may calculate a true data weight for the test data based on the frequency of the weight data, and a false data weight for the test data based on the frequency of the weight data.

실시예들은 입력 데이터로 활용 시 입력 데이터의 빈도수 분석을 통하여 이 데이터가 실제 인식 성능에 도움이 되는 분포인지를 판단할 수 있다.Embodiments may determine whether this data is a distribution conducive to actual recognition performance through analysis of frequency of input data when utilized as input data.

실시예들은 입력 데이터를 학습 자료에 직접적으로 활용할 것인지, 아니면 최종 학습 결과의 가중치로 활용할 것인지를 판단할 수 있다.The embodiments may determine whether to use the input data directly to the learning material or as a weight of the final learning result.

실시예들은 입력 데이터의 평탄도를 측정할 수 있다.Embodiments can measure the flatness of the input data.

실시예들은 가중치 데이터의 가중치를 계산할 수 있다.Embodiments can calculate the weight of the weight data.

도 1a와 도 1b는 일 실시예에 따른 입력 데이터 종류에 따른 빈도수 분포를 도시한 그래프이다.
도 2는 일 실시예에 따른 인공 신경망 학습 방법을 설명하기 위한 순서도이다.
도 3a와 도 3b는 일 실시예에 따른 평판도 계산 방법을 설명하기 위한 그래프이다.
도 4는 일 실시예에 따른 출력 데이터를 획득하는 방법을 설명하기 위한 순서도이다.
도 5a와 도 5b는 일 실시예에 따른 가중치 계산 방법을 설명하기 위한 그래프이다.
도 6은 일 실시예에 따른 학습 시스템을 설명하기 위한 순서도이다.
도 7은 일 실시예에 따른 인공 신경망 학습 장치의 블록도이다.
1A and 1B are graphs illustrating frequency distribution according to input data types according to an embodiment.
2 is a flowchart illustrating an artificial neural network learning method according to an embodiment.
3A and 3B are graphs illustrating a method of calculating a flatness according to an embodiment.
4 is a flowchart illustrating a method of obtaining output data according to an embodiment.
5A and 5B are graphs for explaining a weight calculation method according to an embodiment.
6 is a flowchart illustrating a learning system according to an embodiment.
7 is a block diagram of an artificial neural network learning apparatus according to an embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are exemplified only for the purpose of illustrating the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention These can be implemented in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can be applied to various changes and have various forms, so the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosure forms, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, the first component may be referred to as the second component, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to other components, but other components may exist in the middle. It should be. On the other hand, when a component is said to be “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle. Expressions describing the relationship between the components, for example, “between” and “immediately between” or “directly neighboring to” should also be interpreted.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is only used to describe specific embodiments and is not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms “include” or “have” are intended to designate the presence of a feature, number, step, action, component, part, or combination thereof as described, one or more other features or numbers, It should be understood that the presence or addition possibilities of steps, actions, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined herein. Does not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing denote the same members.

도 1a와 도 1b는 일 실시예에 따른 입력 데이터 종류에 따른 빈도수 분포를 도시한 그래프이다.1A and 1B are graphs illustrating frequency distribution according to input data types according to an embodiment.

입력 데이터는 인공 신경망을 학습에 필요한 데이터들의 집합으로, 입력 데이터는 여러 종류의 데이터를 포함할 수 있다. 예를 들어, 입력 데이터는 서로 다른 클래스(class)들을 위한 입력 데이터를 포함할 수 있다. 입력 데이터는 제1 클래스의 학습을 위한 제1 입력 데이터 및 제2 클래스의 학습을 위한 제2 입력 데이터를 포함할 수 있다.The input data is a set of data necessary for learning an artificial neural network, and the input data may include various types of data. For example, the input data may include input data for different classes. The input data may include first input data for learning of the first class and second input data for learning of the second class.

도 1a를 참조하면, 일 실시예에 따른 입력 데이터는 두 종류의 입력 데이터(110, 120)를 포함할 수 있다. 입력 데이터(110)의 빈도수를 분석하면, 중앙부분에서 가장 높은 빈도를 나타내고 양쪽 가장자리에 일부 빈도를 나타낼 수 있다. 입력 데이터(120)의 빈도수를 분석하면 좌측부분에 높은 빈도를 나타내고 중앙과 우측부분에 일부 빈도를 나타낼 수 있다.Referring to FIG. 1A, input data according to an embodiment may include two types of input data 110 and 120. When the frequency of the input data 110 is analyzed, the highest frequency in the center portion and some frequencies in both edges may be displayed. When the frequency of the input data 120 is analyzed, a high frequency may be shown in the left part and some frequencies may be shown in the center and right parts.

입력 데이터(110)와 입력 데이터(120)의 조합으로 사용되는 입력 데이터의 분포를 2차원 평면상에 표현할 수 있다. 2차원 평면상의 원은 데이터의 분포를 나타내고 원 내의 색의 진하기는 데이터 분포의 빈도수를 나타낼 수 있다. 예를 들어, 영역(130)이 가장 높은 빈도로 발생하는 입력 데이터일 수 있고, 상대적으로 영역(140) 지점은 낮은 빈도로 발생하는 입력 데이터일 수 있다. The distribution of input data used as a combination of the input data 110 and the input data 120 may be represented on a two-dimensional plane. A circle on a two-dimensional plane may indicate the distribution of data, and the intensity of the color in the circle may indicate the frequency of data distribution. For example, the region 130 may be input data that occurs at the highest frequency, and the region 140 point may be input data that occurs at a low frequency.

일 실시예에 따른 인공 신경망은 이러한 2차원 평면상에 존재하는 분포에 기초하여, 입력 데이터를 결정하고, 결정된 입력 데이터를 이용하여 인공 신경망 학습을 통하여 우리가 원하는 동작을 수행할 수 있다. 예를 들어, 영역(130)만을 분류하는 인식이 될 수 도 있고, 영역(140) 부분만을 분류하는 인식이 될 수도 있다. 또는, 영역(150) 부분을 분류하는 인식이 될 수도 있다.The artificial neural network according to an embodiment may determine input data based on a distribution existing on the two-dimensional plane, and perform a desired operation through artificial neural network learning using the determined input data. For example, it may be a recognition to classify only the region 130 or a recognition to classify only the region 140. Alternatively, recognition may be performed by classifying the region 150.

입력 데이터가 상대적으로 떨어져 분포하면 향후 인식기에서 분류가 쉽게 이루어질 수 있고 학습과정도 쉽고, 빠르게 이루어 질 가능성이 높을 수 있다. 전반적으로 입력 데이터의 분포가 많이 떨어지고 나누어질수록 좋은 인식 성능을 나타낼 확률이 높을 수 있다. 각 입력 데이터의 빈도수 분석을 통하여 그 분포의 평탄한 정도가 중요한 정보가 될 수 있다.If the input data is relatively separated and distributed, classification can be easily performed in the future recognizer, the learning process is easy, and there is a high possibility that it can be quickly performed. Overall, the more the distribution of input data falls and is divided, the higher the probability of exhibiting good recognition performance. Through analysis of the frequency of each input data, the flatness of the distribution can be important information.

도 1b를 참조하면, 일 실시예에 따른 입력 데이터는 두 종류의 입력 데이터(160, 170)를 포함할 수 있다. 입력 데이터(170)의 경우. 도 1a의 입력 데이터(110)와 달리, 데이터 빈도수 분포가 상당히 균등할 수 있다. Referring to FIG. 1B, input data according to an embodiment may include two types of input data 160 and 170. For input data 170. Unlike the input data 110 of FIG. 1A, the data frequency distribution may be fairly uniform.

입력 데이터(160)와 입력 데이터(170)의 조합으로 사용되는 입력 데이터의 분포를 2차원 평면상에 표현하는 경우, 도 1a에 비해 분포가 많이 합쳐져 있는 형태를 보일 수 있다. 예를 들어 입력 데이터(170)의 빈도수 분포가 균등하기 때문에, 전체 입력 데이터의 분포 결정 시 큰 영향이 없을 수 있다. 영역(180)과 영역(190)은 입력 데이터(160)에 의해 결정될 수 있다.When the distribution of the input data used as the combination of the input data 160 and the input data 170 is represented on a two-dimensional plane, a distribution may be seen as compared to that of FIG. 1A. For example, since the frequency distribution of the input data 170 is uniform, there may not be a great influence in determining the distribution of the entire input data. The region 180 and the region 190 may be determined by the input data 160.

입력 데이터(170)의 빈도수가 상당히 균일하기 때문에 나타나는 현상으로, 이 경우에는 데이터 분류에 큰 영향이 없는 입력 데이터(170)를 인공지능 학습기의 입력 자료로 직접으로 사용하면, 학습기의 구조를 복잡하게 하고 속도를 저하시켜 오히려 성능이 저하 될 수도 있다. 입력 데이터의 빈도수 분포에 따라 입력 데이터를 분류하고, 특정 데이터만 학습 데이터로 사용하고, 특정 데이터를 제외한 나머지 데이터는 학습 데이터로 사용하여 학습기의 구조를 복잡하게 하고 속도를 저하시키는 것보다, 인공지능 학습기의 최종 결과에 가중치로 활용되는 것이 더 나을 수 있다.This is a phenomenon that occurs because the frequency of the input data 170 is fairly uniform. In this case, if the input data 170, which does not have a great influence on data classification, is used directly as input data of the AI learner, the structure of the learner is complicated. The performance may be lowered by lowering the speed. Rather than complicating the structure of the learner and slowing down the speed of artificial intelligence, the input data is classified according to the frequency distribution of the input data, only specific data is used as training data, and the rest of the data except specific data is used as training data. It may be better to use it as a weight for the final result of the learner.

도 2는 일 실시예에 따른 인공 신경망 학습 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating an artificial neural network learning method according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 인공 신경망 학습 방법의 단계들(210 내지 240)은 인공 신경망 학습 장치에 의해 수행될 수 있다. 인공 신경망 학습 장치(이하, '학습 장치')는 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.Referring to FIG. 2, steps 210 to 240 of an artificial neural network learning method according to an embodiment may be performed by an artificial neural network learning apparatus. The artificial neural network learning device (hereinafter,'learning device') may be implemented by one or more hardware modules, one or more software modules, or various combinations thereof.

단계(210)에서, 학습 장치는 입력 데이터들의 종류에 따른 빈도수를 획득한다. 인공 신경망의 학습을 위한 입력 데이터는 여러 종류의 데이터를 포함할 수 있고, 입력 데이터는 종류에 따라 다른 빈도수 분포를 갖을 수 있다. 예를 들어, 특정 정보를 분류하기 위한 입력 데이터로 나이 정보에 대한 입력 데이터, 수입 정보에 대한 입력 데이터 등이 있을 수 있고, 나이 정보에 대한 입력 데이터와 수입 정보에 대한 입력 데이터는 서로 다른 빈도수 분포를 갖을 수 있다.In step 210, the learning device acquires a frequency according to the type of input data. The input data for learning the artificial neural network may include various types of data, and the input data may have different frequency distributions depending on the type. For example, input data for classifying specific information may include input data for age information and input data for income information, and input data for age information and input data for income information have different frequency distributions. You can have

단계(220)에서, 학습 장치는 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산한다. 일 실시예에 따른 평판도는 데이터 빈도수 분포의 평판한 정도를 수치화한 값으로, 평판한 정도가 높을수록 평판도 값이 낮고, 평판한 정도가 낮을수록 평판도 값이 높을 수 있다. 각 입력 데이터의 평판도는 입력 데이터의 빈도수에 기초하여 계산할 수 있다. 평판도를 계산하는 방법은 아래 도 3에서 상세히 설명된다.In step 220, the learning device calculates a reputation according to the type of input data based on the frequency. The reputation degree according to an embodiment is a value obtained by quantifying the reputation degree of the data frequency distribution. The higher the reputation degree, the lower the reputation value, and the lower the reputation degree, the higher the reputation value. The reputation of each input data can be calculated based on the frequency of the input data. The method of calculating the flatness is described in detail in FIG. 3 below.

단계(230)에서, 학습 장치는 평판도에 기초하여, 입력 데이터들을 학습 데이터와 가중치 데이터로 분류한다. 일 실시예에 따른 학습 데이터와 가중치 데이터는 입력 데이터에 포함되고, 학습 데이터는 입력 데이터 중에서 인공 신경망 학습에 이용되는 데이터일 수 있고, 가중치 데이터는 입력 데이터 중에서 인공 신경망의 직접적인 학습 데이터로 활용되지 않고, 최종 학습 결과의 가중치로 활용되는 데이터일 수 있다.In step 230, the learning device classifies the input data into learning data and weighting data based on the reputation. The training data and the weight data according to an embodiment are included in the input data, and the training data may be data used for learning the artificial neural network among the input data, and the weight data is not utilized as direct training data of the artificial neural network among the input data. , May be data used as a weight of the final learning result.

전술한 바와 같이, 데이터 분류에 큰 영향이 없는 입력 데이터를 인공지능 학습기의 입력 자료로 직접으로 사용하면, 학습기의 구조를 복잡하게 하고 속도를 저하시켜 오히려 성능이 저하 될 수도 있기 때문에, 평판도에 기초하여 입력 데이터를 학습 데이터와 가중치 데이터로 분류할 수 있다. 데이터 빈도수 분포가 균등한 입력 데이터는 학습 데이터로, 데이터 빈도수 분포가 균등하지 않은 입력 데이터는 가중치 데이터로 분류할 수 있다.As described above, if input data that does not have a great influence on data classification is used directly as input data of an AI learner, the structure of the learner may be complicated and the speed may be reduced, so performance may be degraded. The input data can be classified into learning data and weighting data. Input data having a uniform data frequency distribution may be classified as learning data, and input data having a non-uniform data frequency distribution may be classified as weight data.

예를 들어, 평판도가 미리 정해진 임계치보다 클 경우, 입력 데이터들을 학습 데이터로 분류할 수 있고, 평판도가 미리 정해진 임계치보다 작을 경우, 입력 데이터들을 가중치 데이터로 분류할 수 있다.For example, if the reputation is greater than a predetermined threshold, the input data may be classified as training data, and if the reputation is less than a predetermined threshold, the input data may be classified as weighted data.

단계(240)에서, 학습 장치는 학습 데이터를 이용하여 인공 신경망을 학습한다. 학습 데이터는 입력 데이터의 분포가 많이 떨어지고 나누어지는 데이터로, 인식기에서 분류가 쉽게 이루어질 수 있고 학습과정도 쉽고, 빠르게 이루어 질 가능성이 높을 수 있다.In step 240, the learning device trains the artificial neural network using the learning data. The learning data is data that is divided and divided a lot in the input data, and can be easily classified in the recognizer, and the learning process can be easily and quickly.

도 3a와 도 3b는 일 실시예에 따른 평판도 계산 방법을 설명하기 위한 그래프이다.3A and 3B are graphs illustrating a method of calculating a flatness according to an embodiment.

일 실시예에 따른 평판도는 먼저 빈도수의 평균을 구한 후, 모든 데이터의 영역에서 데이터 값과 평균과의 차이를 계산하여 그 값이 높으면 평탄도가 낮고, 그 값이 낮으면 평탄도가 높은 것으로 판단할 수 있다.Reputation according to an embodiment first obtains the average of the frequency, and then calculates the difference between the data value and the average in the region of all data, and if the value is high, the flatness is low, and if the value is low, the flatness is determined to be high. can do.

도 3a와 도 3b의 입력 데이터의 빈도수 분포 그래프를 비교하면, 도 3a의 입력 데이터의 일 실시예에 따른 평판도 계산 방법에 따라 계산한 값이 도 3b 보다 높아 평탄도가 낮고, 그림 4(b)는 계산한 값이 낮아 평탄도가 높은 것으로 판단할 수 있다.When the frequency distribution graphs of the input data of FIGS. 3A and 3B are compared, a value calculated according to a reputation calculation method according to an embodiment of the input data of FIG. 3A is higher than that of FIG. 3B and has low flatness, and FIG. 4(b) It can be determined that the flatness is high because the calculated value is low.

다른 실시예에 따른 평판도는 입력 데이터들의 종류에 따른 빈도수의 분산을 포함할 수 있다. 분산이 작을수록 입력 데이터의 빈도수 분포가 균등하기 때문에 평판도가 높은 것으로 판단할 수 있고, 분산이 클수록 입력 데이터의 빈도수 분포가 균등하지 않기 때문에 평판도가 낮은 것으로 판단할 수 있다. The reputation according to another embodiment may include dispersion of frequencies according to types of input data. The smaller the variance, the more uniform the distribution of the frequency of the input data can be judged to have a high reputation.

또한, 평판도는 입력 데이터들의 종류에 따른 빈도수의 표준편차를 포함하여 데이터가 흩어져 있는 정도를 하나의 수로 나타내는 지표인 절대 편차, 변동 계수 등을 포함할 수 있다.In addition, the reputation may include absolute deviations, coefficients of variation, etc., which are indicators of the degree to which data is scattered, including the standard deviation of frequency according to the type of input data.

도 4는 일 실시예에 따른 출력 데이터를 획득하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of obtaining output data according to an embodiment.

도 4를 참조하면, 단계(410)에서, 일 실시예에 따른 테스트 데이터를 인공 신경망에 입력하여 결과 데이터를 획득할 수 있다. 인공 신경망은 도 1 내지 도 3에서 설명한 방법에 따라 학습된 인공 신경망일 수 있다. 예를 들어, 인공 신경망은 평판도에 기초하여 분류된 입력 데이터 중 학습 데이터로 학습된 신경망일 수 있다. 결과 데이터는 테스트 데이터를 인공 신경망에 입력하여 출력된 데이터일 수 있다.Referring to FIG. 4, in step 410, test data according to an embodiment may be input to an artificial neural network to obtain result data. The artificial neural network may be an artificial neural network learned according to the method described in FIGS. 1 to 3. For example, the artificial neural network may be a neural network trained as learning data among input data classified based on reputation. The result data may be data output by inputting test data to an artificial neural network.

단계(420)에서, 결과 데이터와 가중치 데이터에 기초하여 출력 데이터를 획득할 수 있다. 구체적으로, 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산할 수 있고, 가중치를 결과 데이터에 곱하여 출력 데이터를 획득할 수 있다. 출력 데이터는 테스트 데이터를 인공 신경망에 입력하여 최종적으로 얻게 되는 결과일 수 있다. 가중치를 계산하는 방법은 아래에서 도 5a와 도 5b를 참조하여 상세히 설명된다.In step 420, output data may be obtained based on result data and weight data. Specifically, based on the weight data and the test data, a weight can be calculated, and output data can be obtained by multiplying the weight by the result data. The output data may be a result finally obtained by inputting test data into an artificial neural network. The method of calculating the weight will be described in detail with reference to FIGS. 5A and 5B below.

도 5a와 도 5b는 일 실시예에 따른 가중치 계산 방법을 설명하기 위한 그래프이다.5A and 5B are graphs for explaining a weight calculation method according to an embodiment.

일 실시예에 따른 가중치는 참 데이터 가중치와 거짓 데이터 가중치를 포함할 수 있다. 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다.Weights according to an embodiment may include true data weights and false data weights. Based on the frequency of the weighted data, the true data weight for the test data can be calculated, and based on the frequency of the weighted data, the false data weight for the test data can be calculated.

현실 세계에서 관측된 데이터들이 완벽한 경우는 거의 없으며 약간씩의 오차, 편차, 노이즈 등이 있을 수 있다. 오차, 편차 노이즈 등에 해당하는 데이터는 거짓 데이터일 수 있고, 이를 제외한 나머지 데이터는 참 데이터일 수 있다. 참 데이터에 기초하여 계산된 가중치는 참 데이터 가중치, 거짓 데이터에 기초하여 계산된 가중치는 거짓 데이터 가중치일 수 있다.Data observed in the real world are rarely perfect, and there may be slight errors, deviations, and noise. Data corresponding to errors, deviation noise, etc. may be false data, and the rest of the data may be true data. The weight calculated based on the true data may be a true data weight, and the weight calculated based on the false data may be a false data weight.

도 5a를 참조하면, 평탄도가 낮은 데이터를 참 데이터와 거짓 데이터로 분리하여 빈도수를 나타낼 수 있다. 참 데이터와 거짓 데이터의 빈도수는 빈도수를 기준으로 서로 대칭적인 형태를 나타내고, 참 데이터의 빈도수와 거짓 데이터의 빈도수를 합하면 전체 빈도수가 될 수 있다. Referring to FIG. 5A, data having low flatness can be divided into true data and false data to indicate frequency. The frequency of the true data and the false data is symmetrical to each other based on the frequency, and the sum of the frequency of the true data and the frequency of the false data can be the total frequency.

도 5b를 참조하면, 일 실시예에 따른 가중치 계산방법은, 테스트 데이터 P가 정해지면 이때 이를 기준으로 전체 빈도수를 A, 참 데이터 빈도수를 B, 거짓 데이터 빈도수를 C로 정의할 수 있다. 참 데이터 가중치는 B/A, 거짓 데이터 가중치는 C/A로 계산할 수 있다.Referring to FIG. 5B, when the test data P is determined, the weight calculation method according to an embodiment may define the total frequency A, the true data frequency B, and the false data frequency C based on the test data P. The true data weight can be calculated as B/A and the false data weight as C/A.

가중치를 계산하면, 각각 계산된 가중치를 결과 데이터에 각각 곱하여 최종 인식 결과인 출력 데이터를 획득할 수 있다. 상기 과정을 통하여 빈도수가 평탄하지 않은 입력 데이터는 인공지능 학습기의 직접적인 학습 데이터로 활용하고 빈도수가 평탄한 입력 데이터는 가중치 데이터로 활용하여, 인식 성능은 전반적으로 향상시키고, 학습기의 구조는 덜 복잡하게 하여 전반적인 학습 및 인식 속도를 개선시킬 수 있다.When the weights are calculated, output data, which is the final recognition result, can be obtained by multiplying the calculated weights by the result data. Through the above process, the input data having a non-flat frequency is used as direct learning data of the AI learner, and the input data with a flat frequency is used as weight data, thereby improving the overall recognition performance and making the structure of the learner less complicated. It can improve the overall learning and recognition speed.

도 6은 일 실시예에 따른 학습 시스템을 설명하기 위한 순서도이다.6 is a flowchart illustrating a learning system according to an embodiment.

도 6을 참조하면, 학습 장치는 입력 데이터를 수신할 수 있고(610), 입력 데이터들의 종류에 따른 빈도수를 계산할 수 있다(615). 학습 장치는 계산된 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산할 수 있다(620).Referring to FIG. 6, the learning device may receive input data (610), and calculate a frequency according to the type of input data (615). The learning device may calculate a reputation degree according to the type of input data based on the calculated frequency (620 ).

학습 장치는 평판도에 기초하여 입력 데이터들을 학습 데이터와 가중치 데이터로 분류할 수 있다(625). 임계치 이하의 평판도를 갖는 데이터는 학습 데이터로 사용되어 인공 신경망을 학습할 수 있다(630).The learning device may classify the input data into learning data and weighting data based on the reputation (625 ). Data having a reputation level below a threshold may be used as training data to train an artificial neural network (630).

학습 데이터를 사용하여 학습된 인공 신경망에 테스트 데이터가 입력될 수 있고(645), 테스트 데이터를 이용하여 인공 신경망을 테스팅할 수 있다(635). 인공 신경망은 결과 데이터를 출력할 수 있고(640), 결과 데이터와 가중치가 곱해져서 최종적으로 출력 데이터를 획득할 수 있다(660).Test data may be input to the artificial neural network trained using the training data (645), and the artificial neural network may be tested using the test data (635). The artificial neural network can output the result data (640), and the result data and the weight are multiplied to finally obtain the output data (660).

가중치 데이터의 참 데이터 빈도수와 거짓 데이터 빈도수를 계산하고(650), 계산된 결과와 테스트 데이터에 기초하여 참 데이터 가중치와 거짓 데이터 가중치를 결정할 수 있다(655).A true data frequency and a false data frequency of the weighted data may be calculated (650), and a true data weight and a false data weight may be determined based on the calculated result and test data (655).

도 7은 일 실시예에 따른 인공 신경망 학습 장치의 블록도이다. 7 is a block diagram of an artificial neural network learning apparatus according to an embodiment.

도 7을 참조하면, 일 실시예에 따른 인공 신경망 학습 장치(이하, 학습 장치)(700)는 프로세서(710)를 포함한다. 학습 장치(700)는 통신 인터페이스(730) 및 메모리(750)를 더 포함할 수 있다. 프로세서(710), 통신 인터페이스(730) 및 메모리(750)는 통신 버스(705)를 통해 서로 통신할 수 있다. 학습 장치(700)는 예를 들어, 기계 학습을 위한 인공 지능 분류기 또는 신경망을 위한 분류기이거나, 분류기를 포함할 수 있다. Referring to FIG. 7, an artificial neural network learning apparatus (hereinafter, a learning apparatus) 700 according to an embodiment includes a processor 710. The learning device 700 may further include a communication interface 730 and a memory 750. The processor 710, the communication interface 730, and the memory 750 may communicate with each other through the communication bus 705. The learning device 700 may be, for example, an artificial intelligence classifier for machine learning or a classifier for neural networks, or may include a classifier.

프로세서(710)는 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산하고, 평판도에 기초하여, 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며, 학습 데이터를 이용하여 인공 신경망을 학습한다. The processor 710 calculates a reputation according to the type of input data based on the frequency, classifies the input data into training data and weight data based on the reputation, and trains an artificial neural network using the training data.

프로세서(710)는 빈도수의 평균을 계산하고, 빈도수의 평균과 입력 데이터들의 차이를 계산하고, 차이에 기초하여 평판도를 계산할 수 있다.The processor 710 may calculate the average of the frequency, calculate the difference between the average of the frequency and the input data, and calculate a reputation based on the difference.

프로세서(710)는 평판도가 미리 정해진 임계치보다 클 경우, 입력 데이터들을 학습 데이터로 분류하고, 평판도가 미리 정해진 임계치보다 작을 경우, 입력 데이터들을 가중치 데이터로 분류할 수 있다.The processor 710 may classify input data as training data when the reputation is greater than a predetermined threshold, and classify input data as weighted data when the reputation is less than a predetermined threshold.

프로세서(710)는 테스트 데이터를 인공 신경망에 입력하여 결과 데이터를 획득하고, 결과 데이터와 가중치 데이터에 기초하여, 출력 데이터를 획득할 수 있다.The processor 710 may input test data into an artificial neural network to obtain result data, and based on result data and weight data, output data.

프로세서(710)는 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다. The processor 710 may calculate a true data weight for the test data based on the frequency of the weighted data, and a false data weight for the test data based on the frequency of the weighted data.

프로세서(710)는 이 밖에도, 도 1 내지 도 6을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 프로세서(710)는 프로그램을 실행하고, 학습 장치(700)를 제어할 수 있다. 프로세서(710)에 의하여 실행되는 프로그램 코드는 메모리(750)에 저장될 수 있다.The processor 710 may also perform at least one of the methods described above through FIGS. 1 to 6. The processor 710 may execute a program and control the learning device 700. Program code executed by the processor 710 may be stored in the memory 750.

통신 인터페이스(730)는 학습 장치(700)의 외부로부터 학습 데이터들을 수신할 수 있다. 또한, 통신 인터페이스(730)는 프로세서(710)가 생성한 추가 학습 데이터들을 학습 장치(700)의 외부로 전송할 수 있다. The communication interface 730 may receive learning data from the outside of the learning device 700. In addition, the communication interface 730 may transmit additional learning data generated by the processor 710 to the outside of the learning device 700.

메모리(750)는 통신 인터페이스(730)로부터 수신한 입력 데이터들을 저장할 수 있다. 메모리(750)는 프로세서(710)가 생성한 입력 데이터, 가중치 데이터, 출력 데이터, 결과 데이터들을 저장할 수 있다. 또한, 메모리(750)는 상술한 프로세서(710)에서의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(750)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(750)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(750)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.The memory 750 may store input data received from the communication interface 730. The memory 750 may store input data, weight data, output data, and result data generated by the processor 710. Also, the memory 750 may store various information generated in the process of the above-described processor 710. In addition, the memory 750 can store various data and programs. The memory 750 may include volatile memory or nonvolatile memory. The memory 750 may be equipped with a mass storage medium such as a hard disk to store various data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by hardware components, software components, and/or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

입력 데이터들의 종류에 따른 빈도수를 획득하는 단계;
상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하는 단계;
상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하는 단계; 및
상기 학습 데이터를 이용하여 인공 신경망을 학습하는 단계
를 포함하는 인공 신경망 학습 방법.
Obtaining a frequency according to the type of input data;
Calculating a reputation degree according to the type of the input data based on the frequency;
Classifying the input data into learning data and weighting data based on the reputation; And
Learning an artificial neural network using the learning data
Artificial neural network learning method comprising a.
제1항에 있어서,
상기 평판도를 계산하는 단계는
상기 빈도수의 평균을 계산하는 단계;
상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하는 단계; 및
상기 차이에 기초하여 상기 평판도를 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of calculating the reputation
Calculating an average of the frequency;
Calculating a difference between the average of the frequencies and the input data; And
Calculating the reputation degree based on the difference
Including, artificial neural network learning method.
제1항에 있어서,
상기 평판도를 계산하는 단계는
상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of calculating the reputation
Computing the variance of the frequency according to the type of the input data
Including, artificial neural network learning method.
제1항에 있어서,
상기 입력 데이터들을 상기 학습 데이터와 상기 가중치 데이터로 분류하는 단계는
상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하는 단계; 및
상기 평판도가 상기 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of classifying the input data into the learning data and the weighting data is
Classifying the input data into the learning data when the reputation is greater than a predetermined threshold; And
Classifying the input data into the weight data when the reputation is smaller than the predetermined threshold value
Including, artificial neural network learning method.
제1항에 있어서,
테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하는 단계; 및
상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는 단계
를 더 포함하는, 인공 신경망 학습 방법.
According to claim 1,
Obtaining test data by inputting test data to the artificial neural network; And
Obtaining output data based on the result data and the weight data
Further comprising, artificial neural network learning method.
제5항에 있어서,
상기 출력 데이터를 획득하는 단계는
상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하는 단계; 및
상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는 단계
를 포함하는, 인공 신경망 학습 방법.
The method of claim 5,
The step of obtaining the output data is
Calculating a weight based on the weight data and the test data; And
Obtaining the output data by multiplying the weight by the result data
Including, artificial neural network learning method.
제6항에 있어서,
상기 가중치를 계산하는 단계는
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하는 단계; 및
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
The method of claim 6,
The step of calculating the weight
Calculating a true data weight for the test data based on the frequency of the weight data; And
Calculating a false data weight for the test data based on the frequency of the weight data
Including, artificial neural network learning method.
하드웨어와 결합되어 제1항 내지 제7항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium to execute the method of claim 1 in combination with hardware.
입력 데이터들의 종류에 따른 빈도수를 획득하고,
상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하고,
상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며,
상기 학습 데이터를 이용하여 인공 신경망을 학습하는
프로세서를 포함하는 인공 신경망 학습 장치.
Acquire the frequency according to the type of input data,
Calculate the reputation according to the type of the input data based on the frequency,
Based on the reputation, the input data are classified into learning data and weighting data,
Learning an artificial neural network using the learning data
Artificial neural network learning device including a processor.
제9항에 있어서,
상기 프로세서는
상기 빈도수의 평균을 계산하고,
상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하고,
상기 차이에 기초하여 상기 평판도를 계산하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Calculate the average of the frequencies,
Calculate the difference between the average of the frequency and the input data,
An artificial neural network learning apparatus for calculating the reputation based on the difference.
제9항에 있어서,
상기 프로세서는
상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Artificial neural network learning apparatus for calculating the variance of the frequency according to the type of the input data.
제9항에 있어서,
상기 프로세서는
상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하고,
상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
When the reputation is greater than a predetermined threshold, the input data is classified as the learning data,
If the reputation is less than a predetermined threshold, the artificial neural network learning apparatus to classify the input data as the weight data.
제9항에 있어서,
상기 프로세서는
테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하고,
상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Input test data to the artificial neural network to obtain result data,
An artificial neural network learning apparatus for obtaining output data based on the result data and the weight data.
제13항에 있어서,
상기 프로세서는
상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하고,
상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는, 인공 신경망 학습 장치.
The method of claim 13,
The processor
Based on the weight data and the test data, a weight is calculated,
An artificial neural network learning apparatus for obtaining the output data by multiplying the weight by the result data.
제14항에 있어서,
상기 프로세서는
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하고,
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는, 인공 신경망 학습 장치.
The method of claim 14,
The processor
Based on the frequency of the weighted data, a true data weight for the test data is calculated,
An artificial neural network learning apparatus for calculating a false data weight for the test data based on the frequency of the weight data.
KR1020180160613A 2018-12-13 2018-12-13 Artificial inteligence learning methods and apparatus using analysis of data frequency value KR102209505B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180160613A KR102209505B1 (en) 2018-12-13 2018-12-13 Artificial inteligence learning methods and apparatus using analysis of data frequency value

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160613A KR102209505B1 (en) 2018-12-13 2018-12-13 Artificial inteligence learning methods and apparatus using analysis of data frequency value

Publications (2)

Publication Number Publication Date
KR20200072717A true KR20200072717A (en) 2020-06-23
KR102209505B1 KR102209505B1 (en) 2021-02-01

Family

ID=71138121

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160613A KR102209505B1 (en) 2018-12-13 2018-12-13 Artificial inteligence learning methods and apparatus using analysis of data frequency value

Country Status (1)

Country Link
KR (1) KR102209505B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220020721A (en) * 2020-08-12 2022-02-21 국방과학연구소 Method and apparatus for compact weighted binary classification technique to separate target and clutter in SAR image by using deep learning
KR20230077247A (en) * 2021-11-25 2023-06-01 재단법인대구경북과학기술원 Electronic device for identifying efficient classifier and controlling method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182696A (en) * 2003-12-24 2005-07-07 Fuji Xerox Co Ltd Machine learning system and method, and computer program
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program
JP2016157196A (en) * 2015-02-23 2016-09-01 Kddi株式会社 Learning data generating system, learning data generation method and program
KR101782363B1 (en) * 2016-05-23 2017-09-27 (주)에이앤아이 Vision inspection method based on learning data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182696A (en) * 2003-12-24 2005-07-07 Fuji Xerox Co Ltd Machine learning system and method, and computer program
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program
JP2016157196A (en) * 2015-02-23 2016-09-01 Kddi株式会社 Learning data generating system, learning data generation method and program
KR101782363B1 (en) * 2016-05-23 2017-09-27 (주)에이앤아이 Vision inspection method based on learning data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220020721A (en) * 2020-08-12 2022-02-21 국방과학연구소 Method and apparatus for compact weighted binary classification technique to separate target and clutter in SAR image by using deep learning
KR20230077247A (en) * 2021-11-25 2023-06-01 재단법인대구경북과학기술원 Electronic device for identifying efficient classifier and controlling method thereof

Also Published As

Publication number Publication date
KR102209505B1 (en) 2021-02-01

Similar Documents

Publication Publication Date Title
Hubregtsen et al. Evaluation of parameterized quantum circuits: on the relation between classification accuracy, expressibility, and entangling capability
CN109272016B (en) Target detection method, device, terminal equipment and computer readable storage medium
US20190188605A1 (en) Machine Learning Model Understanding As-A-Service
KR102167011B1 (en) An image traning apparatus extracting hard negative samples being used to training a neural network based on sampling and a threshold adjusting adaptively and a method performed by the image training apparatus
US11379718B2 (en) Ground truth quality for machine learning models
CN110969200B (en) Image target detection model training method and device based on consistency negative sample
US20200042419A1 (en) System and method for benchmarking ai hardware using synthetic ai model
JPWO2018207334A1 (en) Image recognition apparatus, image recognition method, and image recognition program
KR102209505B1 (en) Artificial inteligence learning methods and apparatus using analysis of data frequency value
KR20170101500A (en) Method and apparatus for identifying audio signal using noise rejection
US20220148290A1 (en) Method, device and computer storage medium for data analysis
US11175829B2 (en) Automatic identification of workloads contributing to behavioral changes in storage systems using machine learning techniques
KR20210060146A (en) Method and apparatus for processing data using deep neural network model, method and apparatus for trining deep neural network model
KR102085415B1 (en) Method and Apparatus of Intrusion Detection for Wi-Fi Network Based on Weight-Selected Neural Networks
US20210342707A1 (en) Data-driven techniques for model ensembles
US11507670B2 (en) Method for testing an artificial intelligence model using a substitute model
CN111104339B (en) Software interface element detection method, system, computer equipment and storage medium based on multi-granularity learning
CN114202224B (en) Method, apparatus, medium for detecting weld quality in a production environment
KR20200057835A (en) Clustring system and method for forecasting item demand of repair parts of military equipment by demand pattern
JP2023154373A (en) Information processing apparatus
CN116777814A (en) Image processing method, apparatus, computer device, storage medium, and program product
KR102446854B1 (en) Methods and apparatus for predicting data
KR20210156538A (en) Method and appratus for processing data using neural network
KR102460521B1 (en) Layer adaptive threshold decision based deep learning model ensemble devices and method of the cooperative client-server structure
KR102472596B1 (en) Layer adaptive threshold decision based deep learning model ensemble devices and method of the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant