KR20200072717A - Artificial inteligence learning methods and apparatus using analysis of data frequency value - Google Patents
Artificial inteligence learning methods and apparatus using analysis of data frequency value Download PDFInfo
- Publication number
- KR20200072717A KR20200072717A KR1020180160613A KR20180160613A KR20200072717A KR 20200072717 A KR20200072717 A KR 20200072717A KR 1020180160613 A KR1020180160613 A KR 1020180160613A KR 20180160613 A KR20180160613 A KR 20180160613A KR 20200072717 A KR20200072717 A KR 20200072717A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- weight
- neural network
- artificial neural
- input data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004458 analytical method Methods 0.000 title description 5
- 238000013528 artificial neural network Methods 0.000 claims abstract description 55
- 238000012360 testing method Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 abstract description 16
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000009826 distribution Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
아래 실시예들은 데이터 빈도수 분석을 통한 인공지능 학습 방법 및 장치 에 관한 것이다.The embodiments below relate to an artificial intelligence learning method and apparatus through data frequency analysis.
인공지능에서 좋은 인식 성능을 나타내기 위해서는 사용되는 입력 데이터의 종류가 다양하고, 그 데이터의 양이 많아야 한다. 데이터 자체의 양을 확보하기 위해서는 다양한 실험을 통하여 측정하거나, 시간적으로 오랜 기간을 측정함으로써 다소 쉽게 확보할 수 있다. 일반적으로 데이터 자체의 양은 많을수록, 실제 환경을 많이 대변하기 때문에 좋은 인식 성능을 나타낸다고 알려져 있다.In order to show good recognition performance in artificial intelligence, there are various types of input data, and the amount of data must be large. In order to secure the amount of data itself, it can be easily obtained by measuring through various experiments or by measuring a long period of time. In general, it is known that the larger the amount of data itself, the better the recognition performance because it represents the actual environment.
일반적으로 입력 데이터 종류가 증가할수록 인식 성능을 향상하지만, 잘못된 형태의 입력 데이터가 포함되면 오히려 성능이 저하 될 수도 있다. 입력 데이터 종류의 경우 일반적으로 개수가 많을수록 인식 성능을 향상되지만, 잘못된 형태의 입력 데이터가 포함되면 오히려 성능이 저하 될 수도 있다.In general, as the type of input data increases, the recognition performance improves, but if the wrong type of input data is included, performance may decrease. In the case of input data types, in general, the larger the number, the better the recognition performance, but if the wrong type of input data is included, performance may decrease.
따라서 입력 데이터로 활용 시 신중하게 고려하여 전반적인 인식 성능을 높이고, 처리 속도 부분을 줄일 필요가 있다. Therefore, it is necessary to increase overall recognition performance and reduce processing speed by carefully considering when used as input data.
실시예들은 입력 데이터로 활용 시 입력 데이터의 빈도수 분석을 통하여 이 데이터가 실제 인식 성능에 도움이 되는 분포인지를 판단하고자 한다.The embodiments try to determine whether this data is a distribution conducive to actual recognition performance through analysis of the frequency of the input data when utilized as input data.
실시예들은 입력 데이터를 학습 자료에 직접적으로 활용할 것인지, 아니면 최종 학습 결과의 가중치로 활용할 것인지를 판단하고자 한다.The embodiments are intended to determine whether to use the input data directly in the learning material or as a weight of the final learning result.
실시예들은 입력 데이터의 평탄도를 측정하고자 한다.The embodiments are intended to measure the flatness of the input data.
실시예들은 가중치 데이터의 가중치를 계산하고자 한다.The embodiments seek to calculate the weight of the weight data.
일 실시예에 따른 인공 신경망 학습 방법은 입력 데이터들의 종류에 따른 빈도수를 획득하는 단계; 상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하는 단계; 상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하는 단계; 및 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 단계를 포함한다.An artificial neural network learning method according to an embodiment may include obtaining a frequency according to types of input data; Calculating a reputation degree according to the type of the input data based on the frequency; Classifying the input data into learning data and weighting data based on the reputation; And learning an artificial neural network using the learning data.
상기 평판도를 계산하는 단계는 상기 빈도수의 평균을 계산하는 단계; 상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하는 단계; 및 상기 차이에 기초하여 상기 평판도를 계산하는 단계를 포함할 수 있다.The calculating the reputation may include calculating an average of the frequencies; Calculating a difference between the average of the frequencies and the input data; And calculating the reputation degree based on the difference.
상기 평판도를 계산하는 단계는 상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는 단계를 포함할 수 있다.The calculating of the reputation may include calculating the variance of the frequency according to the type of the input data.
상기 입력 데이터들을 상기 학습 데이터와 상기 가중치 데이터로 분류하는 단계는 상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하는 단계; 및 상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는 단계를 포함할 수 있다.The step of classifying the input data into the training data and the weighting data may include classifying the input data into the training data when the reputation is greater than a predetermined threshold; And when the reputation is smaller than a predetermined threshold, classifying the input data into the weight data.
일 실시예에 따른 인공 신경망 학습 방법은 테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하는 단계; 및 상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는 단계를 더 포함할 수 있다.An artificial neural network learning method according to an embodiment may include inputting test data into the artificial neural network to obtain result data; And obtaining output data based on the result data and the weight data.
상기 출력 데이터를 획득하는 단계는 상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하는 단계; 및 상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는 단계를 포함할 수 있다.The obtaining of the output data may include calculating a weight based on the weight data and the test data; And obtaining the output data by multiplying the weight by the result data.
상기 가중치를 계산하는 단계는 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하는 단계; 및 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는 단계를 포함할 수 있다.The calculating of the weight may include calculating a true data weight for the test data based on the frequency of the weight data; And calculating false data weights for the test data based on the frequency of the weight data.
일 실시예에 따른 인공 신경망 학습 장치는 입력 데이터들의 종류에 따른 빈도수를 획득하고, 상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하고, 상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며, 상기 학습 데이터를 이용하여 인공 신경망을 학습하는 프로세서를 포함한다.The artificial neural network learning apparatus according to an embodiment acquires a frequency according to the type of input data, calculates a reputation according to the type of the input data based on the frequency, and based on the reputation, learns the input data And weight data, and a processor for learning an artificial neural network using the learning data.
상기 프로세서는 상기 빈도수의 평균을 계산하고, 상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하고, 상기 차이에 기초하여 상기 평판도를 계산할 수 있다.The processor may calculate the average of the frequencies, calculate the difference between the average of the frequencies and the input data, and calculate the reputation based on the difference.
상기 프로세서는 상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산할 수 있다.The processor may calculate the variance of the frequency according to the type of the input data.
상기 프로세서는 상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하고, 상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류할 수 있다.The processor may classify the input data as the learning data when the reputation is greater than a predetermined threshold, and classify the input data as the weighting data when the reputation is less than a predetermined threshold.
상기 프로세서는 테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하고, 상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득할 수 있다.The processor may acquire test data by inputting test data to the artificial neural network, and obtain output data based on the result data and the weight data.
상기 프로세서는 상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하고, 상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득할 수 있다.The processor may calculate the weight based on the weight data and the test data, and obtain the output data by multiplying the weight by the result data.
상기 프로세서는 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다.The processor may calculate a true data weight for the test data based on the frequency of the weight data, and a false data weight for the test data based on the frequency of the weight data.
실시예들은 입력 데이터로 활용 시 입력 데이터의 빈도수 분석을 통하여 이 데이터가 실제 인식 성능에 도움이 되는 분포인지를 판단할 수 있다.Embodiments may determine whether this data is a distribution conducive to actual recognition performance through analysis of frequency of input data when utilized as input data.
실시예들은 입력 데이터를 학습 자료에 직접적으로 활용할 것인지, 아니면 최종 학습 결과의 가중치로 활용할 것인지를 판단할 수 있다.The embodiments may determine whether to use the input data directly to the learning material or as a weight of the final learning result.
실시예들은 입력 데이터의 평탄도를 측정할 수 있다.Embodiments can measure the flatness of the input data.
실시예들은 가중치 데이터의 가중치를 계산할 수 있다.Embodiments can calculate the weight of the weight data.
도 1a와 도 1b는 일 실시예에 따른 입력 데이터 종류에 따른 빈도수 분포를 도시한 그래프이다.
도 2는 일 실시예에 따른 인공 신경망 학습 방법을 설명하기 위한 순서도이다.
도 3a와 도 3b는 일 실시예에 따른 평판도 계산 방법을 설명하기 위한 그래프이다.
도 4는 일 실시예에 따른 출력 데이터를 획득하는 방법을 설명하기 위한 순서도이다.
도 5a와 도 5b는 일 실시예에 따른 가중치 계산 방법을 설명하기 위한 그래프이다.
도 6은 일 실시예에 따른 학습 시스템을 설명하기 위한 순서도이다.
도 7은 일 실시예에 따른 인공 신경망 학습 장치의 블록도이다. 1A and 1B are graphs illustrating frequency distribution according to input data types according to an embodiment.
2 is a flowchart illustrating an artificial neural network learning method according to an embodiment.
3A and 3B are graphs illustrating a method of calculating a flatness according to an embodiment.
4 is a flowchart illustrating a method of obtaining output data according to an embodiment.
5A and 5B are graphs for explaining a weight calculation method according to an embodiment.
6 is a flowchart illustrating a learning system according to an embodiment.
7 is a block diagram of an artificial neural network learning apparatus according to an embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are exemplified only for the purpose of illustrating the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention These can be implemented in various forms and are not limited to the embodiments described herein.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can be applied to various changes and have various forms, so the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosure forms, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, the first component may be referred to as the second component, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to other components, but other components may exist in the middle. It should be. On the other hand, when a component is said to be “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle. Expressions describing the relationship between the components, for example, “between” and “immediately between” or “directly neighboring to” should also be interpreted.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is only used to describe specific embodiments and is not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms “include” or “have” are intended to designate the presence of a feature, number, step, action, component, part, or combination thereof as described, one or more other features or numbers, It should be understood that the presence or addition possibilities of steps, actions, components, parts or combinations thereof are not excluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined herein. Does not.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing denote the same members.
도 1a와 도 1b는 일 실시예에 따른 입력 데이터 종류에 따른 빈도수 분포를 도시한 그래프이다.1A and 1B are graphs illustrating frequency distribution according to input data types according to an embodiment.
입력 데이터는 인공 신경망을 학습에 필요한 데이터들의 집합으로, 입력 데이터는 여러 종류의 데이터를 포함할 수 있다. 예를 들어, 입력 데이터는 서로 다른 클래스(class)들을 위한 입력 데이터를 포함할 수 있다. 입력 데이터는 제1 클래스의 학습을 위한 제1 입력 데이터 및 제2 클래스의 학습을 위한 제2 입력 데이터를 포함할 수 있다.The input data is a set of data necessary for learning an artificial neural network, and the input data may include various types of data. For example, the input data may include input data for different classes. The input data may include first input data for learning of the first class and second input data for learning of the second class.
도 1a를 참조하면, 일 실시예에 따른 입력 데이터는 두 종류의 입력 데이터(110, 120)를 포함할 수 있다. 입력 데이터(110)의 빈도수를 분석하면, 중앙부분에서 가장 높은 빈도를 나타내고 양쪽 가장자리에 일부 빈도를 나타낼 수 있다. 입력 데이터(120)의 빈도수를 분석하면 좌측부분에 높은 빈도를 나타내고 중앙과 우측부분에 일부 빈도를 나타낼 수 있다.Referring to FIG. 1A, input data according to an embodiment may include two types of
입력 데이터(110)와 입력 데이터(120)의 조합으로 사용되는 입력 데이터의 분포를 2차원 평면상에 표현할 수 있다. 2차원 평면상의 원은 데이터의 분포를 나타내고 원 내의 색의 진하기는 데이터 분포의 빈도수를 나타낼 수 있다. 예를 들어, 영역(130)이 가장 높은 빈도로 발생하는 입력 데이터일 수 있고, 상대적으로 영역(140) 지점은 낮은 빈도로 발생하는 입력 데이터일 수 있다. The distribution of input data used as a combination of the
일 실시예에 따른 인공 신경망은 이러한 2차원 평면상에 존재하는 분포에 기초하여, 입력 데이터를 결정하고, 결정된 입력 데이터를 이용하여 인공 신경망 학습을 통하여 우리가 원하는 동작을 수행할 수 있다. 예를 들어, 영역(130)만을 분류하는 인식이 될 수 도 있고, 영역(140) 부분만을 분류하는 인식이 될 수도 있다. 또는, 영역(150) 부분을 분류하는 인식이 될 수도 있다.The artificial neural network according to an embodiment may determine input data based on a distribution existing on the two-dimensional plane, and perform a desired operation through artificial neural network learning using the determined input data. For example, it may be a recognition to classify only the
입력 데이터가 상대적으로 떨어져 분포하면 향후 인식기에서 분류가 쉽게 이루어질 수 있고 학습과정도 쉽고, 빠르게 이루어 질 가능성이 높을 수 있다. 전반적으로 입력 데이터의 분포가 많이 떨어지고 나누어질수록 좋은 인식 성능을 나타낼 확률이 높을 수 있다. 각 입력 데이터의 빈도수 분석을 통하여 그 분포의 평탄한 정도가 중요한 정보가 될 수 있다.If the input data is relatively separated and distributed, classification can be easily performed in the future recognizer, the learning process is easy, and there is a high possibility that it can be quickly performed. Overall, the more the distribution of input data falls and is divided, the higher the probability of exhibiting good recognition performance. Through analysis of the frequency of each input data, the flatness of the distribution can be important information.
도 1b를 참조하면, 일 실시예에 따른 입력 데이터는 두 종류의 입력 데이터(160, 170)를 포함할 수 있다. 입력 데이터(170)의 경우. 도 1a의 입력 데이터(110)와 달리, 데이터 빈도수 분포가 상당히 균등할 수 있다. Referring to FIG. 1B, input data according to an embodiment may include two types of
입력 데이터(160)와 입력 데이터(170)의 조합으로 사용되는 입력 데이터의 분포를 2차원 평면상에 표현하는 경우, 도 1a에 비해 분포가 많이 합쳐져 있는 형태를 보일 수 있다. 예를 들어 입력 데이터(170)의 빈도수 분포가 균등하기 때문에, 전체 입력 데이터의 분포 결정 시 큰 영향이 없을 수 있다. 영역(180)과 영역(190)은 입력 데이터(160)에 의해 결정될 수 있다.When the distribution of the input data used as the combination of the
입력 데이터(170)의 빈도수가 상당히 균일하기 때문에 나타나는 현상으로, 이 경우에는 데이터 분류에 큰 영향이 없는 입력 데이터(170)를 인공지능 학습기의 입력 자료로 직접으로 사용하면, 학습기의 구조를 복잡하게 하고 속도를 저하시켜 오히려 성능이 저하 될 수도 있다. 입력 데이터의 빈도수 분포에 따라 입력 데이터를 분류하고, 특정 데이터만 학습 데이터로 사용하고, 특정 데이터를 제외한 나머지 데이터는 학습 데이터로 사용하여 학습기의 구조를 복잡하게 하고 속도를 저하시키는 것보다, 인공지능 학습기의 최종 결과에 가중치로 활용되는 것이 더 나을 수 있다.This is a phenomenon that occurs because the frequency of the
도 2는 일 실시예에 따른 인공 신경망 학습 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating an artificial neural network learning method according to an embodiment.
도 2를 참조하면, 일 실시예에 따른 인공 신경망 학습 방법의 단계들(210 내지 240)은 인공 신경망 학습 장치에 의해 수행될 수 있다. 인공 신경망 학습 장치(이하, '학습 장치')는 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.Referring to FIG. 2,
단계(210)에서, 학습 장치는 입력 데이터들의 종류에 따른 빈도수를 획득한다. 인공 신경망의 학습을 위한 입력 데이터는 여러 종류의 데이터를 포함할 수 있고, 입력 데이터는 종류에 따라 다른 빈도수 분포를 갖을 수 있다. 예를 들어, 특정 정보를 분류하기 위한 입력 데이터로 나이 정보에 대한 입력 데이터, 수입 정보에 대한 입력 데이터 등이 있을 수 있고, 나이 정보에 대한 입력 데이터와 수입 정보에 대한 입력 데이터는 서로 다른 빈도수 분포를 갖을 수 있다.In
단계(220)에서, 학습 장치는 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산한다. 일 실시예에 따른 평판도는 데이터 빈도수 분포의 평판한 정도를 수치화한 값으로, 평판한 정도가 높을수록 평판도 값이 낮고, 평판한 정도가 낮을수록 평판도 값이 높을 수 있다. 각 입력 데이터의 평판도는 입력 데이터의 빈도수에 기초하여 계산할 수 있다. 평판도를 계산하는 방법은 아래 도 3에서 상세히 설명된다.In
단계(230)에서, 학습 장치는 평판도에 기초하여, 입력 데이터들을 학습 데이터와 가중치 데이터로 분류한다. 일 실시예에 따른 학습 데이터와 가중치 데이터는 입력 데이터에 포함되고, 학습 데이터는 입력 데이터 중에서 인공 신경망 학습에 이용되는 데이터일 수 있고, 가중치 데이터는 입력 데이터 중에서 인공 신경망의 직접적인 학습 데이터로 활용되지 않고, 최종 학습 결과의 가중치로 활용되는 데이터일 수 있다.In
전술한 바와 같이, 데이터 분류에 큰 영향이 없는 입력 데이터를 인공지능 학습기의 입력 자료로 직접으로 사용하면, 학습기의 구조를 복잡하게 하고 속도를 저하시켜 오히려 성능이 저하 될 수도 있기 때문에, 평판도에 기초하여 입력 데이터를 학습 데이터와 가중치 데이터로 분류할 수 있다. 데이터 빈도수 분포가 균등한 입력 데이터는 학습 데이터로, 데이터 빈도수 분포가 균등하지 않은 입력 데이터는 가중치 데이터로 분류할 수 있다.As described above, if input data that does not have a great influence on data classification is used directly as input data of an AI learner, the structure of the learner may be complicated and the speed may be reduced, so performance may be degraded. The input data can be classified into learning data and weighting data. Input data having a uniform data frequency distribution may be classified as learning data, and input data having a non-uniform data frequency distribution may be classified as weight data.
예를 들어, 평판도가 미리 정해진 임계치보다 클 경우, 입력 데이터들을 학습 데이터로 분류할 수 있고, 평판도가 미리 정해진 임계치보다 작을 경우, 입력 데이터들을 가중치 데이터로 분류할 수 있다.For example, if the reputation is greater than a predetermined threshold, the input data may be classified as training data, and if the reputation is less than a predetermined threshold, the input data may be classified as weighted data.
단계(240)에서, 학습 장치는 학습 데이터를 이용하여 인공 신경망을 학습한다. 학습 데이터는 입력 데이터의 분포가 많이 떨어지고 나누어지는 데이터로, 인식기에서 분류가 쉽게 이루어질 수 있고 학습과정도 쉽고, 빠르게 이루어 질 가능성이 높을 수 있다.In
도 3a와 도 3b는 일 실시예에 따른 평판도 계산 방법을 설명하기 위한 그래프이다.3A and 3B are graphs illustrating a method of calculating a flatness according to an embodiment.
일 실시예에 따른 평판도는 먼저 빈도수의 평균을 구한 후, 모든 데이터의 영역에서 데이터 값과 평균과의 차이를 계산하여 그 값이 높으면 평탄도가 낮고, 그 값이 낮으면 평탄도가 높은 것으로 판단할 수 있다.Reputation according to an embodiment first obtains the average of the frequency, and then calculates the difference between the data value and the average in the region of all data, and if the value is high, the flatness is low, and if the value is low, the flatness is determined to be high. can do.
도 3a와 도 3b의 입력 데이터의 빈도수 분포 그래프를 비교하면, 도 3a의 입력 데이터의 일 실시예에 따른 평판도 계산 방법에 따라 계산한 값이 도 3b 보다 높아 평탄도가 낮고, 그림 4(b)는 계산한 값이 낮아 평탄도가 높은 것으로 판단할 수 있다.When the frequency distribution graphs of the input data of FIGS. 3A and 3B are compared, a value calculated according to a reputation calculation method according to an embodiment of the input data of FIG. 3A is higher than that of FIG. 3B and has low flatness, and FIG. 4(b) It can be determined that the flatness is high because the calculated value is low.
다른 실시예에 따른 평판도는 입력 데이터들의 종류에 따른 빈도수의 분산을 포함할 수 있다. 분산이 작을수록 입력 데이터의 빈도수 분포가 균등하기 때문에 평판도가 높은 것으로 판단할 수 있고, 분산이 클수록 입력 데이터의 빈도수 분포가 균등하지 않기 때문에 평판도가 낮은 것으로 판단할 수 있다. The reputation according to another embodiment may include dispersion of frequencies according to types of input data. The smaller the variance, the more uniform the distribution of the frequency of the input data can be judged to have a high reputation.
또한, 평판도는 입력 데이터들의 종류에 따른 빈도수의 표준편차를 포함하여 데이터가 흩어져 있는 정도를 하나의 수로 나타내는 지표인 절대 편차, 변동 계수 등을 포함할 수 있다.In addition, the reputation may include absolute deviations, coefficients of variation, etc., which are indicators of the degree to which data is scattered, including the standard deviation of frequency according to the type of input data.
도 4는 일 실시예에 따른 출력 데이터를 획득하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of obtaining output data according to an embodiment.
도 4를 참조하면, 단계(410)에서, 일 실시예에 따른 테스트 데이터를 인공 신경망에 입력하여 결과 데이터를 획득할 수 있다. 인공 신경망은 도 1 내지 도 3에서 설명한 방법에 따라 학습된 인공 신경망일 수 있다. 예를 들어, 인공 신경망은 평판도에 기초하여 분류된 입력 데이터 중 학습 데이터로 학습된 신경망일 수 있다. 결과 데이터는 테스트 데이터를 인공 신경망에 입력하여 출력된 데이터일 수 있다.Referring to FIG. 4, in
단계(420)에서, 결과 데이터와 가중치 데이터에 기초하여 출력 데이터를 획득할 수 있다. 구체적으로, 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산할 수 있고, 가중치를 결과 데이터에 곱하여 출력 데이터를 획득할 수 있다. 출력 데이터는 테스트 데이터를 인공 신경망에 입력하여 최종적으로 얻게 되는 결과일 수 있다. 가중치를 계산하는 방법은 아래에서 도 5a와 도 5b를 참조하여 상세히 설명된다.In
도 5a와 도 5b는 일 실시예에 따른 가중치 계산 방법을 설명하기 위한 그래프이다.5A and 5B are graphs for explaining a weight calculation method according to an embodiment.
일 실시예에 따른 가중치는 참 데이터 가중치와 거짓 데이터 가중치를 포함할 수 있다. 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다.Weights according to an embodiment may include true data weights and false data weights. Based on the frequency of the weighted data, the true data weight for the test data can be calculated, and based on the frequency of the weighted data, the false data weight for the test data can be calculated.
현실 세계에서 관측된 데이터들이 완벽한 경우는 거의 없으며 약간씩의 오차, 편차, 노이즈 등이 있을 수 있다. 오차, 편차 노이즈 등에 해당하는 데이터는 거짓 데이터일 수 있고, 이를 제외한 나머지 데이터는 참 데이터일 수 있다. 참 데이터에 기초하여 계산된 가중치는 참 데이터 가중치, 거짓 데이터에 기초하여 계산된 가중치는 거짓 데이터 가중치일 수 있다.Data observed in the real world are rarely perfect, and there may be slight errors, deviations, and noise. Data corresponding to errors, deviation noise, etc. may be false data, and the rest of the data may be true data. The weight calculated based on the true data may be a true data weight, and the weight calculated based on the false data may be a false data weight.
도 5a를 참조하면, 평탄도가 낮은 데이터를 참 데이터와 거짓 데이터로 분리하여 빈도수를 나타낼 수 있다. 참 데이터와 거짓 데이터의 빈도수는 빈도수를 기준으로 서로 대칭적인 형태를 나타내고, 참 데이터의 빈도수와 거짓 데이터의 빈도수를 합하면 전체 빈도수가 될 수 있다. Referring to FIG. 5A, data having low flatness can be divided into true data and false data to indicate frequency. The frequency of the true data and the false data is symmetrical to each other based on the frequency, and the sum of the frequency of the true data and the frequency of the false data can be the total frequency.
도 5b를 참조하면, 일 실시예에 따른 가중치 계산방법은, 테스트 데이터 P가 정해지면 이때 이를 기준으로 전체 빈도수를 A, 참 데이터 빈도수를 B, 거짓 데이터 빈도수를 C로 정의할 수 있다. 참 데이터 가중치는 B/A, 거짓 데이터 가중치는 C/A로 계산할 수 있다.Referring to FIG. 5B, when the test data P is determined, the weight calculation method according to an embodiment may define the total frequency A, the true data frequency B, and the false data frequency C based on the test data P. The true data weight can be calculated as B/A and the false data weight as C/A.
가중치를 계산하면, 각각 계산된 가중치를 결과 데이터에 각각 곱하여 최종 인식 결과인 출력 데이터를 획득할 수 있다. 상기 과정을 통하여 빈도수가 평탄하지 않은 입력 데이터는 인공지능 학습기의 직접적인 학습 데이터로 활용하고 빈도수가 평탄한 입력 데이터는 가중치 데이터로 활용하여, 인식 성능은 전반적으로 향상시키고, 학습기의 구조는 덜 복잡하게 하여 전반적인 학습 및 인식 속도를 개선시킬 수 있다.When the weights are calculated, output data, which is the final recognition result, can be obtained by multiplying the calculated weights by the result data. Through the above process, the input data having a non-flat frequency is used as direct learning data of the AI learner, and the input data with a flat frequency is used as weight data, thereby improving the overall recognition performance and making the structure of the learner less complicated. It can improve the overall learning and recognition speed.
도 6은 일 실시예에 따른 학습 시스템을 설명하기 위한 순서도이다.6 is a flowchart illustrating a learning system according to an embodiment.
도 6을 참조하면, 학습 장치는 입력 데이터를 수신할 수 있고(610), 입력 데이터들의 종류에 따른 빈도수를 계산할 수 있다(615). 학습 장치는 계산된 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산할 수 있다(620).Referring to FIG. 6, the learning device may receive input data (610), and calculate a frequency according to the type of input data (615). The learning device may calculate a reputation degree according to the type of input data based on the calculated frequency (620 ).
학습 장치는 평판도에 기초하여 입력 데이터들을 학습 데이터와 가중치 데이터로 분류할 수 있다(625). 임계치 이하의 평판도를 갖는 데이터는 학습 데이터로 사용되어 인공 신경망을 학습할 수 있다(630).The learning device may classify the input data into learning data and weighting data based on the reputation (625 ). Data having a reputation level below a threshold may be used as training data to train an artificial neural network (630).
학습 데이터를 사용하여 학습된 인공 신경망에 테스트 데이터가 입력될 수 있고(645), 테스트 데이터를 이용하여 인공 신경망을 테스팅할 수 있다(635). 인공 신경망은 결과 데이터를 출력할 수 있고(640), 결과 데이터와 가중치가 곱해져서 최종적으로 출력 데이터를 획득할 수 있다(660).Test data may be input to the artificial neural network trained using the training data (645), and the artificial neural network may be tested using the test data (635). The artificial neural network can output the result data (640), and the result data and the weight are multiplied to finally obtain the output data (660).
가중치 데이터의 참 데이터 빈도수와 거짓 데이터 빈도수를 계산하고(650), 계산된 결과와 테스트 데이터에 기초하여 참 데이터 가중치와 거짓 데이터 가중치를 결정할 수 있다(655).A true data frequency and a false data frequency of the weighted data may be calculated (650), and a true data weight and a false data weight may be determined based on the calculated result and test data (655).
도 7은 일 실시예에 따른 인공 신경망 학습 장치의 블록도이다. 7 is a block diagram of an artificial neural network learning apparatus according to an embodiment.
도 7을 참조하면, 일 실시예에 따른 인공 신경망 학습 장치(이하, 학습 장치)(700)는 프로세서(710)를 포함한다. 학습 장치(700)는 통신 인터페이스(730) 및 메모리(750)를 더 포함할 수 있다. 프로세서(710), 통신 인터페이스(730) 및 메모리(750)는 통신 버스(705)를 통해 서로 통신할 수 있다. 학습 장치(700)는 예를 들어, 기계 학습을 위한 인공 지능 분류기 또는 신경망을 위한 분류기이거나, 분류기를 포함할 수 있다. Referring to FIG. 7, an artificial neural network learning apparatus (hereinafter, a learning apparatus) 700 according to an embodiment includes a
프로세서(710)는 빈도수에 기초하여 입력 데이터들의 종류에 따른 평판도를 계산하고, 평판도에 기초하여, 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며, 학습 데이터를 이용하여 인공 신경망을 학습한다. The
프로세서(710)는 빈도수의 평균을 계산하고, 빈도수의 평균과 입력 데이터들의 차이를 계산하고, 차이에 기초하여 평판도를 계산할 수 있다.The
프로세서(710)는 평판도가 미리 정해진 임계치보다 클 경우, 입력 데이터들을 학습 데이터로 분류하고, 평판도가 미리 정해진 임계치보다 작을 경우, 입력 데이터들을 가중치 데이터로 분류할 수 있다.The
프로세서(710)는 테스트 데이터를 인공 신경망에 입력하여 결과 데이터를 획득하고, 결과 데이터와 가중치 데이터에 기초하여, 출력 데이터를 획득할 수 있다.The
프로세서(710)는 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 참 데이터 가중치를 계산하고, 가중치 데이터의 빈도수에 기초하여, 테스트 데이터에 대한 거짓 데이터 가중치를 계산할 수 있다. The
프로세서(710)는 이 밖에도, 도 1 내지 도 6을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 프로세서(710)는 프로그램을 실행하고, 학습 장치(700)를 제어할 수 있다. 프로세서(710)에 의하여 실행되는 프로그램 코드는 메모리(750)에 저장될 수 있다.The
통신 인터페이스(730)는 학습 장치(700)의 외부로부터 학습 데이터들을 수신할 수 있다. 또한, 통신 인터페이스(730)는 프로세서(710)가 생성한 추가 학습 데이터들을 학습 장치(700)의 외부로 전송할 수 있다. The
메모리(750)는 통신 인터페이스(730)로부터 수신한 입력 데이터들을 저장할 수 있다. 메모리(750)는 프로세서(710)가 생성한 입력 데이터, 가중치 데이터, 출력 데이터, 결과 데이터들을 저장할 수 있다. 또한, 메모리(750)는 상술한 프로세서(710)에서의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(750)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(750)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(750)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by hardware components, software components, and/or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (15)
상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하는 단계;
상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하는 단계; 및
상기 학습 데이터를 이용하여 인공 신경망을 학습하는 단계
를 포함하는 인공 신경망 학습 방법.
Obtaining a frequency according to the type of input data;
Calculating a reputation degree according to the type of the input data based on the frequency;
Classifying the input data into learning data and weighting data based on the reputation; And
Learning an artificial neural network using the learning data
Artificial neural network learning method comprising a.
상기 평판도를 계산하는 단계는
상기 빈도수의 평균을 계산하는 단계;
상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하는 단계; 및
상기 차이에 기초하여 상기 평판도를 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of calculating the reputation
Calculating an average of the frequency;
Calculating a difference between the average of the frequencies and the input data; And
Calculating the reputation degree based on the difference
Including, artificial neural network learning method.
상기 평판도를 계산하는 단계는
상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of calculating the reputation
Computing the variance of the frequency according to the type of the input data
Including, artificial neural network learning method.
상기 입력 데이터들을 상기 학습 데이터와 상기 가중치 데이터로 분류하는 단계는
상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하는 단계; 및
상기 평판도가 상기 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는 단계
를 포함하는, 인공 신경망 학습 방법.
According to claim 1,
The step of classifying the input data into the learning data and the weighting data is
Classifying the input data into the learning data when the reputation is greater than a predetermined threshold; And
Classifying the input data into the weight data when the reputation is smaller than the predetermined threshold value
Including, artificial neural network learning method.
테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하는 단계; 및
상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는 단계
를 더 포함하는, 인공 신경망 학습 방법.
According to claim 1,
Obtaining test data by inputting test data to the artificial neural network; And
Obtaining output data based on the result data and the weight data
Further comprising, artificial neural network learning method.
상기 출력 데이터를 획득하는 단계는
상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하는 단계; 및
상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는 단계
를 포함하는, 인공 신경망 학습 방법.
The method of claim 5,
The step of obtaining the output data is
Calculating a weight based on the weight data and the test data; And
Obtaining the output data by multiplying the weight by the result data
Including, artificial neural network learning method.
상기 가중치를 계산하는 단계는
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하는 단계; 및
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는 단계
를 포함하는, 인공 신경망 학습 방법.
The method of claim 6,
The step of calculating the weight
Calculating a true data weight for the test data based on the frequency of the weight data; And
Calculating a false data weight for the test data based on the frequency of the weight data
Including, artificial neural network learning method.
A computer program stored in a medium to execute the method of claim 1 in combination with hardware.
상기 빈도수에 기초하여 상기 입력 데이터들의 종류에 따른 평판도를 계산하고,
상기 평판도에 기초하여, 상기 입력 데이터들을 학습 데이터와 가중치 데이터로 분류하며,
상기 학습 데이터를 이용하여 인공 신경망을 학습하는
프로세서를 포함하는 인공 신경망 학습 장치.
Acquire the frequency according to the type of input data,
Calculate the reputation according to the type of the input data based on the frequency,
Based on the reputation, the input data are classified into learning data and weighting data,
Learning an artificial neural network using the learning data
Artificial neural network learning device including a processor.
상기 프로세서는
상기 빈도수의 평균을 계산하고,
상기 빈도수의 평균과 상기 입력 데이터들의 차이를 계산하고,
상기 차이에 기초하여 상기 평판도를 계산하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Calculate the average of the frequencies,
Calculate the difference between the average of the frequency and the input data,
An artificial neural network learning apparatus for calculating the reputation based on the difference.
상기 프로세서는
상기 입력 데이터들의 종류에 따른 상기 빈도수의 분산을 계산하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Artificial neural network learning apparatus for calculating the variance of the frequency according to the type of the input data.
상기 프로세서는
상기 평판도가 미리 정해진 임계치보다 클 경우, 상기 입력 데이터들을 상기 학습 데이터로 분류하고,
상기 평판도가 미리 정해진 임계치보다 작을 경우, 상기 입력 데이터들을 상기 가중치 데이터로 분류하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
When the reputation is greater than a predetermined threshold, the input data is classified as the learning data,
If the reputation is less than a predetermined threshold, the artificial neural network learning apparatus to classify the input data as the weight data.
상기 프로세서는
테스트 데이터를 상기 인공 신경망에 입력하여 결과 데이터를 획득하고,
상기 결과 데이터와 상기 가중치 데이터에 기초하여, 출력 데이터를 획득하는, 인공 신경망 학습 장치.
The method of claim 9,
The processor
Input test data to the artificial neural network to obtain result data,
An artificial neural network learning apparatus for obtaining output data based on the result data and the weight data.
상기 프로세서는
상기 가중치 데이터와 상기 테스트 데이터에 기초하여, 가중치를 계산하고,
상기 가중치를 상기 결과 데이터에 곱하여 상기 출력 데이터를 획득하는, 인공 신경망 학습 장치.
The method of claim 13,
The processor
Based on the weight data and the test data, a weight is calculated,
An artificial neural network learning apparatus for obtaining the output data by multiplying the weight by the result data.
상기 프로세서는
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 참 데이터 가중치를 계산하고,
상기 가중치 데이터의 빈도수에 기초하여, 상기 테스트 데이터에 대한 거짓 데이터 가중치를 계산하는, 인공 신경망 학습 장치.
The method of claim 14,
The processor
Based on the frequency of the weighted data, a true data weight for the test data is calculated,
An artificial neural network learning apparatus for calculating a false data weight for the test data based on the frequency of the weight data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180160613A KR102209505B1 (en) | 2018-12-13 | 2018-12-13 | Artificial inteligence learning methods and apparatus using analysis of data frequency value |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180160613A KR102209505B1 (en) | 2018-12-13 | 2018-12-13 | Artificial inteligence learning methods and apparatus using analysis of data frequency value |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200072717A true KR20200072717A (en) | 2020-06-23 |
KR102209505B1 KR102209505B1 (en) | 2021-02-01 |
Family
ID=71138121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180160613A KR102209505B1 (en) | 2018-12-13 | 2018-12-13 | Artificial inteligence learning methods and apparatus using analysis of data frequency value |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102209505B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220020721A (en) * | 2020-08-12 | 2022-02-21 | 국방과학연구소 | Method and apparatus for compact weighted binary classification technique to separate target and clutter in SAR image by using deep learning |
KR20230077247A (en) * | 2021-11-25 | 2023-06-01 | 재단법인대구경북과학기술원 | Electronic device for identifying efficient classifier and controlling method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182696A (en) * | 2003-12-24 | 2005-07-07 | Fuji Xerox Co Ltd | Machine learning system and method, and computer program |
JP2016143094A (en) * | 2015-01-29 | 2016-08-08 | パナソニックIpマネジメント株式会社 | Transfer learning device, transfer learning system, transfer learning method and program |
JP2016157196A (en) * | 2015-02-23 | 2016-09-01 | Kddi株式会社 | Learning data generating system, learning data generation method and program |
KR101782363B1 (en) * | 2016-05-23 | 2017-09-27 | (주)에이앤아이 | Vision inspection method based on learning data |
-
2018
- 2018-12-13 KR KR1020180160613A patent/KR102209505B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182696A (en) * | 2003-12-24 | 2005-07-07 | Fuji Xerox Co Ltd | Machine learning system and method, and computer program |
JP2016143094A (en) * | 2015-01-29 | 2016-08-08 | パナソニックIpマネジメント株式会社 | Transfer learning device, transfer learning system, transfer learning method and program |
JP2016157196A (en) * | 2015-02-23 | 2016-09-01 | Kddi株式会社 | Learning data generating system, learning data generation method and program |
KR101782363B1 (en) * | 2016-05-23 | 2017-09-27 | (주)에이앤아이 | Vision inspection method based on learning data |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220020721A (en) * | 2020-08-12 | 2022-02-21 | 국방과학연구소 | Method and apparatus for compact weighted binary classification technique to separate target and clutter in SAR image by using deep learning |
KR20230077247A (en) * | 2021-11-25 | 2023-06-01 | 재단법인대구경북과학기술원 | Electronic device for identifying efficient classifier and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102209505B1 (en) | 2021-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hubregtsen et al. | Evaluation of parameterized quantum circuits: on the relation between classification accuracy, expressibility, and entangling capability | |
CN109272016B (en) | Target detection method, device, terminal equipment and computer readable storage medium | |
US20190188605A1 (en) | Machine Learning Model Understanding As-A-Service | |
KR102167011B1 (en) | An image traning apparatus extracting hard negative samples being used to training a neural network based on sampling and a threshold adjusting adaptively and a method performed by the image training apparatus | |
US11379718B2 (en) | Ground truth quality for machine learning models | |
CN110969200B (en) | Image target detection model training method and device based on consistency negative sample | |
US20200042419A1 (en) | System and method for benchmarking ai hardware using synthetic ai model | |
JPWO2018207334A1 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
KR102209505B1 (en) | Artificial inteligence learning methods and apparatus using analysis of data frequency value | |
KR20170101500A (en) | Method and apparatus for identifying audio signal using noise rejection | |
US20220148290A1 (en) | Method, device and computer storage medium for data analysis | |
US11175829B2 (en) | Automatic identification of workloads contributing to behavioral changes in storage systems using machine learning techniques | |
KR20210060146A (en) | Method and apparatus for processing data using deep neural network model, method and apparatus for trining deep neural network model | |
KR102085415B1 (en) | Method and Apparatus of Intrusion Detection for Wi-Fi Network Based on Weight-Selected Neural Networks | |
US20210342707A1 (en) | Data-driven techniques for model ensembles | |
US11507670B2 (en) | Method for testing an artificial intelligence model using a substitute model | |
CN111104339B (en) | Software interface element detection method, system, computer equipment and storage medium based on multi-granularity learning | |
CN114202224B (en) | Method, apparatus, medium for detecting weld quality in a production environment | |
KR20200057835A (en) | Clustring system and method for forecasting item demand of repair parts of military equipment by demand pattern | |
JP2023154373A (en) | Information processing apparatus | |
CN116777814A (en) | Image processing method, apparatus, computer device, storage medium, and program product | |
KR102446854B1 (en) | Methods and apparatus for predicting data | |
KR20210156538A (en) | Method and appratus for processing data using neural network | |
KR102460521B1 (en) | Layer adaptive threshold decision based deep learning model ensemble devices and method of the cooperative client-server structure | |
KR102472596B1 (en) | Layer adaptive threshold decision based deep learning model ensemble devices and method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |