KR102134324B1 - 인공 신경망 규칙 추출 장치 및 방법 - Google Patents

인공 신경망 규칙 추출 장치 및 방법 Download PDF

Info

Publication number
KR102134324B1
KR102134324B1 KR1020180023503A KR20180023503A KR102134324B1 KR 102134324 B1 KR102134324 B1 KR 102134324B1 KR 1020180023503 A KR1020180023503 A KR 1020180023503A KR 20180023503 A KR20180023503 A KR 20180023503A KR 102134324 B1 KR102134324 B1 KR 102134324B1
Authority
KR
South Korea
Prior art keywords
input data
rule
neural network
data set
artificial neural
Prior art date
Application number
KR1020180023503A
Other languages
English (en)
Other versions
KR20190102703A (ko
Inventor
박영택
바트셀렘
이완곤
최현영
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020180023503A priority Critical patent/KR102134324B1/ko
Publication of KR20190102703A publication Critical patent/KR20190102703A/ko
Application granted granted Critical
Publication of KR102134324B1 publication Critical patent/KR102134324B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따르면, 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성하는 데이터 학습부; 상기 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 상기 입력 데이터 세트의 이진 분류 규칙을 추출하는 제1규칙 추출부; 상기 이진 분류 규칙에 따라 상기 입력 데이터 세트를 이진 데이터로 분류하는 이진 분류부; 및 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성하는 제2규칙 추출부를 포함하는 인공 신경망 규칙 추출 장치를 제공한다.

Description

인공 신경망 규칙 추출 장치 및 방법{APPARATUS AND METHOD FOR EXTRACTING RULES OF ARTFICIAL NEURAL NETWORK}
본 발명의 일실시예는 인공 신경망 규칙 추출 장치 및 방법에 관한 것으로, 더욱 구체적으로는 다양한 데이터의 관리, 분석, 패턴 추출 등에 적용되는 인공 신경망 기술의 규칙 추출 장치 및 방법에 관한 것이다.
다양하고 방대한 양의 정보가 존재하는 오늘날의 지식사회에서 지식은 유일한 자원이라기보다 오직 하나 있는 의미 있는 자원이라고 강조되고 있다. 여러 형태의 지식 원천으로부터 필요한 지식과 정보를 추출하여 이를 구조적으로 조직화하는 지식 획득(knowledge aquisition)이 중요한 문제로 부각되고 있다. 과거에는 주로 전문가나 문헌에 의해 지식을 얻었지만, 문제의 범위가 복잡하고 넓어짐에 따라 과거의 전통적인 방법으로 지식을 획득하기 어려워졌다. 이에 대한 대안으로 데이터를 분석하여 패턴과 규칙을 찾아내어 지식을 추출하려는 방법들이 제시되고 있다. 데이터로부터 지식을 추출하는 기법으로 전통적으로는 통계기법을 사용했으나, 최근에는 인공 신경망, 의사결정나무, 유전자알고리즘, 사례추론시스템, 퍼지시스템 등의 인공지능(artificial intelligent) 기법 등이 사용되고 있다.
특히, 인공 신경망은 분류 예측 문제의 해결하기 위한 다방면의 문제영역에서 사용되고 있다. 인공 신경망은 부실 기업 예측 모형, 채권등급 평가 등 재무 관련 자료들을 분석하고 활용하여 결과를 예측함에 있어 그 정확성이 로지스틱 회귀분석(logistic regression), 판별 분석 등의 통계기법이나 의사결정나무(decision tree)등의 다른 인공지능 기법보다 우 수하여 그 활용 범위가 넓다는 장점이 있다. 또한 데이터의 잡음에 민감하지 않고 그 구조가 견고하다. 그러나 자료를 학습하는 내부 과정이 복잡한 수학적 모델에 의해서 생성되기 때문에 사용자들이 결과를 이해하기 어려우며, 복잡한 구조에 의한 설명력 부재는 인공 신경망의 가장 큰 문제점으로 지적되고 있다.
본 발명이 이루고자 하는 기술적 과제는 이진 속성뿐만이 아니라 연속 속성을 가지는 데이터가 적용되는 인공 신경망의 규칙을 추출할 수 있는 인공 신경망 규칙 추출 장치 및 방법을 제공하는데 있다.
본 발명의 일 실시예에 따르면, 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성하는 데이터 학습부; 상기 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 상기 입력 데이터 세트의 이진 분류 규칙을 추출하는 제1규칙 추출부; 상기 이진 분류 규칙에 따라 상기 입력 데이터 세트를 이진 데이터로 분류하는 이진 분류부; 및 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성하는 제2규칙 추출부를 포함하는 인공 신경망 규칙 추출 장치를 제공한다.
상기 제1규칙 추출부는, 상기 입력 데이터 세트를 구분하는 초평면을 형성하고, 상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 큐브를 순차적으로 형성하며, 상기 큐브의 범위에 따라 상기 이진 분류 규칙을 추출할 수 있다.
상기 제1규칙 추출부는, 초평면 상에 위치하면서 최대한 많은 수의 입력 데이터를 형성하는 최적점을 찾고, 최적점에 따라 큐브를 형성할 수 있다.
상기 제1규칙 추출부는, 상기 이진 분류 규칙에 따라 큐브에 포함되는 입력 데이터는 "1"의 값으로 치환하고, 큐브에 포함되지 않는 입력 데이터는 "0"의 값으로 치환할 수 있다.
상기 입력 데이터 세트는 3개 이상의 속성을 가지는 데이터를 포함할 수 있다.
상기 데이터 학습부는 역전파 알고리즘을 이용하여 상기 인공 신경망 모델을 생성할 수 있다.
상기 제2규칙 추출부는 NofM알고리즘을 이용하여 상기 논리 규칙을 생성할 수 있다.
본 발명의 실시예에 따르면, 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성하는 단계; 상기 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 상기 입력 데이터 세트의 이진 분류 규칙을 추출하는 단계; 상기 이진 분류 규칙에 따라 상기 입력 데이터 세트를 이진 데이터로 분류하는 단계; 및 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성하는 단계를 포함하는 인공 신경망 규칙 추출 방법을 제공한다.
상기 이진 분류 규칙을 추출하는 단계는, 상기 입력 데이터 세트를 구분하는 초평면을 형성하는 단계; 상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 제1큐브를 형성하는 단계; 상기 제1큐브를 제외한 큐브 중 상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 제2큐브를 형성하는 단계; 상기 제1큐브 및 상기제2큐브의 범위에 따라 상기 이진 분류 규칙을 추출하는 단계를 포함한다.
상기 논리 규칙을 생성하는 단계는, 입력층과 은닉층 사이에서 학습된 가중치를 군집으로 분류하는 단계; 유사 가중치를 가지는 군집을 등가그룹을 형성하는 단계; 각 등가그룹내의 가중치를 상기 등가그룹 각각의 가중치 평균값으로 치환하는 단계; 입력값에 따라 분계점을 넘지 못하는 가중치들을 포함하는 등가 그룹을 삭제하는 단계; 역전파 알고리즘을 적용하여 은닉층과 출력층의 분계점을 최적화하는 단계; 및 연결 가중치와 분계점을 없애고 상기 논리 규칙을 추출하는 단계를 포함한다.
본 발명인 인공 신경망 규칙 추출 장치 및 방법은 연속 속성을 가지는 데이터가 적용되는 인공 신경망의 규칙을 추출할 수 있다.
도1은 본 발명의 실시예에 따른 인공 신경망 규칙 추출 장치의 구성블록도이다.
도2는 본 발명의 실시예에 따른 인공 신경망 모델의 개념도이다.
도3은 본 발명의 실시예에 따른 단일 마디의 개념도이다.
도4는 본 발명의 실시예에 따른 초평면의 개념도이다.
도5는 본 발명의 실시예에 따른 큐브의 개념도이다.
도6은 본 발명의 실시예에 따른 이진 분류 규칙을 설명하기 위한 도면이다.
도7은 본 발명의 실시예에 따른 NofM알고리즘을 설명하기 위한 도면이다.
도8은 본 발명의 실시예에 따른 인공 신경망 규칙 추출 방법의 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도1은 본 발명의 실시예에 따른 인공 신경망 규칙 추출 장치의 구성블록도이고, 도2는 본 발명의 실시예에 따른 인공 신경망 모델의 개념도이다.
도1 내지 도2를 참조하면, 본 발명의 실시예에 따른 인공 신경망 규칙 추출 장치는 데이터 학습부(110), 제1규칙 추출부(120), 이진 분류부(130) 및 제2규칙 추출부(140)를 포함하여 구성될 수 있다.
먼저, 데이터 학습부(110)는 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성할 수 있다. 데이터 학습부(110)는 입력 데이터 세트를 이용하여 입력층에서 출력층에 이르기까지 다음 층에 가중치를 부여하는 과정을 반복하여 인공 신경망 모델을 생성하고 분석할 수 있다. 데이터 학습부(110)는 인공 신경망 모델의 출력값과 목표값의 차이로 발생하는 값을 이용하여 학습하고 새로운 모형을 구축하고, 반복적으로 출력값과 목표값의 차이를 최소화하는 가중치를 탐색할 수 있다. 데이터 학습부(110)는 출력값과 목표값의 차이가 최소화되면 학습을 중지할 수 있다.
데이터 학습부(110)는 예를 들면, 역전파(backpropagation)알고리즘을 적용하여 인공 신경망 모델을 생성할 수 있다.
데이터 학습부(110)는 입력층에 제시된 값 Opj 와 오프셋 θj, 입력층과 은닉층과의 가중치 Wji를 이용하여 은닉층 마디의 입력값 netpj를 구하고, 이를 다시 은닉층의 활성화 함수(activation function)에 대입하여 은닉층 마디 j의 출력값 Opj 를 구한다.
데이터 학습부(110)는 은닉층 노드의 출력값 Opj과 은닉층과 출력층과의 가중치Wkj, 그리고 출력층 노드의 오프셋 θk를 이용하여 출력층의 입력값 netpk를 구하고, 이를 다시 출력층의 활성화 함수에 대입하여 출력층의 출력값 Opk 를 구한다.
데이터 학습부(110)는 학습패턴의 목표값 tpk과 출력층의 출력값 Opk의 차이로부터 출력층 마디 k에 연결된 연결강도와 오프셋에 대한 오차 δpk를 계산한다.
데이터 학습부(110)는 오차 δpk와 은닉층과 출력층간의 가중치 Wkj, 은닉층 마디의 출력값 netpk를 이용하여 은닉층 마디 j에 연결된 가중치 Wji와 오프셋 θj에 대한 오차 δpj를 구한다.
데이터 학습부(110)는 오차δpj를 이용하여 은닉층과 출력층을 연결하는 가중치 Wij와 오프셋 θj을 수정한다.
데이터 학습부(110)는 오차 δpkpj로 부터 은닉층과 입력층을 연결하는 가중치 Wji와 오프셋 θj을 수정한다.
데이터 학습부(110)는 수정된 가중치와 오프셋을 인공 신경망 모델에 학습시킨다. 데이터 학습부(110)는 모든 입력 데이터 세트에 대하여 이러한 과정을 되풀이하고, 정해진 학습 반복횟수만큼 전체 학습패턴의 학습을 반복한 후 학습을 종료한다.
이와 같이, 데이터 학습부(110)는 역전파 알고리즘에 따라 출력값과 목표값을 비교하여 차이를 줄여나가는 방향으로 가중치를 조절하고, 모델의 상위층에서 역전파한 결과를 근거로 하위층의 가중치를 조정해 나갈 수 있다.
제1규칙 추출부(120)는 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 입력 데이터 세트의 이진 분류 규칙을 추출할 수 있다.
제1규칙 추출부(120)는 입력 데이터 세트를 구분하는 초평면을 형성하고, 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 큐브를 순차적으로 형성하며, 큐브의 범위에 따라 이진 분류 규칙을 추출할 수 있다.
도3은 본 발명의 실시예에 따른 인공 신경망 모델의 단일 마디의 개념도이다. 도1 및 도3을 참조하면, 인공 신경망 모델에서는 마디(인공 뉴런, artificial neuron)라고 불리는 기본 소자 들이 신경 세포와 같은 역할을 하게 되며 이것들이 그물망처럼 서로 연결되어 인공 신경망을 이루게 된다. 각 마디는 외부로부터 값을 받으면 연결된 가중치와 곱한 뒤 모두 합하고, 더해진 값을 활성화함수 (activation function)를 이용하여 변환한다. 활성화 함수는 은닉층과 출력층에 제시되는 값을 변형시켜 출력하는데 사용하는 함수 이다. 인공 신경망에서 주로 사용되는 활성화 함수에는 각 변수들을 [0, 1]의 범위로 변환하는 시그모이드(sigmoid) 함수, [-1, 1]로 변환하는 하이퍼볼릭탄젠트 함수 등 여러 가지가 있다. 본 발명의 실시예에서는 시그모이드 활성화 함수를 예로 들어 설명하기로 한다. 본 발명의 실시예에 따른 인공 신경망 모델의 입력(x1, x2,···, xn)과 출력(Output)은 아래 수학식 1과 같은 함수 관계로 정의될 수 있다.
Figure 112018020056871-pat00001
Figure 112018020056871-pat00002
수학식 1에서 xn은 입력 데이터 세트이고, wn은 각 입력 데이터 세트에 연결된 신경망의 가중치이다.
제1규칙 추출부(120)는 각 마디의 입력에 따라 초평면을 형성할 수 있다. 제1규칙 추출부(120)는 아래의 수학식2에 따라 초평면을 형성할 수 있다.
Figure 112018020056871-pat00003
수학식2는 인공 신경망 에서 각 마디에 입력되는 가중치 선형합(Weighted linear sum)을 의미한다. 입력 데이터 세트가 n개의 속성 또는 차원을 가지는 경우, n개의 가중치와의 곱연산을 통해 다음층(layer)의 입력값이 산출된다. Bias는 편향값으로 추가적인 가중치값을 의미하며스칼라 값을 가진다. 따라서 f(x)는 입력 데이터 세트의 특성 또는 차원이 하나일 땐 직선, 두 개일 땐 평면이 되며, 더 높은 특성 또는 차원에서는 초평면이 되는 회귀 모델의 특징을 가질 수 있다.
도3 및 도4는 본 발명의 실시예에 따른 초평면의 개념도이다. 본 발명의 실시예에서 인공 신경망 모델은 다층 신경망 모델로 구성되어 있다. 제1규칙 추출부(120)는 다층 신경망 모델을 구성하는 제1은닉층에 대하여 초평면을 형성하고 이진 규칙을 추출할 수 있다.
제1규칙 추출부(120)는 f(X) < 0을 만족하는 입력 데이터 세트는 제2레이블을 표기하고, 그렇지 않은 입력 데이터 세트에는 제1레이블을 표기할 수 있다. 제1레이블은 참(true) 또는 양(positivs)의 값을 가지고, 제2레이블은 거짓(false) 또는 음(negative)의 값을 가질 수 있다. 즉, 제1규칙 추출부(120)는 초평면을 형성하여 초평면을 기준으로 일측에 위치한 입력 데이터 세트에는 제1레이블을 표기하고, 타측에 위치한 입력 데이터 세트에는 제2레이블을 표기할 수 있다.
제1규칙 추출부(120)는 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 큐브를 순차적으로 형성할 수 있다. 도5는 본 발명의 실시예에 따른 큐브의 개념도이다. 도1 및 도5를 참조하면, 제1규칙 추출부(120)는 먼저 초평면과 접하면서 제1레이블을 가지는 입력 데이터를 가장 많이 포함하는 제1큐브를 형성한다. 다음으로, 제1규칙 추출부(120)는 제1큐브를 제외한 상태에서, 초평면과 접하면서 제1레이블을 가지는 입력 데이터를 가장 많이 포함하는 제2큐브를 형성한다. 제1규칙 추출부(120)는 모든 입력 데이터 세트를 커버할 수 있도록 큐브를 형성하는 과정을 반복한다. 제1규칙 추출부(120)는 초평면 상에 위치하는 최적점을 찾고, 최적점에 따라 최대한 많은 수의 입력 데이터를 포함하는 큐브를 형성할 수 있다.
제1규칙 추출부(120)는 큐브를 찾는 단계별로 최적점을 찾는 작업을 반복 수행할 수 있다. 제1규칙 추출부(120)는 먼저 제1레이블의 데이터를 가장 많이 포함할 수 있는 제1큐브를 선택하고, 초평면 위에 존재하는 제1큐브의 꼭짓점을 제1최적점으로 선택한다. 다음으로, 제1규칙 추출부(120)는 제1큐브에 포함된 입력 데이터를 제거한 상태에서 제1레이블의 데이터를 가장 많이 포함할 수 있는 제2큐브를 선택하고, 초평면 위에 존재하는 제2큐브의 꼭짓점을 제2최적점으로 선택한다. 제1규칙 추출부(120)는 모든 입력 데이터 세트가 큐브에 포함될 때까지 큐브와 최적점을 선택하는 과정을 반복 수행한다.
제1규칙 추출부(120)는 아래 수학식 3의 목적함수 L(x)에 따라 m개의 특성을 가지는 N개의 입력 데이터 세트를 통해 입력 데이터와 최적점 사이의 차이 값을 최소화하는 과정을 수행한다.
Figure 112018020056871-pat00004
수학식 3에서x* j는 큐브의 최적점이고, xi j는 입력 데이터 세트이고, w는 가중치이고, j는 속성 또는 차원이며, i는 입력 데이터 인덱스이고, λ는 정규화 파라미터(regularization parameter)로 설정에 의하여 변경될 수 있는 파라미터이다.
L(x)의 최소화(
Figure 112018020056871-pat00005
)는 아래 수학식 4에 따라 미분을 통하여 수행될 수 있다.
Figure 112018020056871-pat00006
제1규칙 추출부(120)는 각 큐브 별로 아래의 수학식 5와 같은 규칙을 추출하게 된다. 이때에 입력 데이터 세트의 특성이 여러개이므로 각 특성별로 수학식 5와 같은 큐브의 범위를 계산하고, 수학식 6과 같이 모두 만족하는 경우를 범위로 표현한다.
Figure 112018020056871-pat00007
Figure 112018020056871-pat00008
수학식 5 및 6에서 C는 큐브의 범위이고, xmin j는j차원에서 입력 데이터 세트의 최솟값이고, xmax j는 j차원에서 입력 데이터 세트의 최댓값이고, wj는 j차원에서의 가중치이고, hj는 이진 분류 규칙이고, xi는 테스트 입력 데이터 세트이고, x* i는 테스트 입력 데이터 세트의 최적점이다.
도6은 본 발명의 실시예에 따른 이진 분류 규칙을 설명하기 위한 도면이다. 도1 및 도6을 참조하면, 이진 분류부(130)는 큐브의 범위에 따라 이진 분류 규칙을 추출할 수 있다. 이진 분류부(130)는 이진 분류 규칙인 수학식 6에 따라 입력 데이터 세트를 이진 데이터로 치환할 수 있다. 이진 분류부(130)는 이진 분류 규칙에 따라 큐브에 포함되는 입력 데이터는 "1"의 값으로 치환하고, 큐브에 포함되지 않는 입력 데이터는 "0"의 값으로 치환할 수 있다.
제2규칙 추출부(140)는 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성할 수 있다.
제2규칙 추출부(140)는 NofM알고리즘을 이용하여 논리 규칙을 생성할 수 있다.
도7은 본 발명의 실시예에 따른 NofM알고리즘을 설명하기 위한 도면이다. 도1 및 도7을 참조하면, 제2규칙 추출부(140)는 먼저, 입력층과 은닉층 사이에서 학습된 가중치를 군집으로 분류하고, 유사 가중치를 가지는 군집을 등가그룹으로 형성한다. A 내지 G를 입력 노드라 하고, Z를 은닉 노드라 하면 입력 노드와 은닉 노드는 가중치가 부여된다. 제2규칙 추출부는 유사 가중치를 가지는 A, C, F노드를 제1등가그룹으로 형성하고, B, D, E, G노드를 제2등가그룹으로 형성한다.
다음으로, 제2규칙 추출부(140)는 각 등가그룹내의 가중치를 등가그룹 각각의 가중치 평균값으로 치환한다. 제2규칙 추출부(140)는 제1등가그룹의 가중치를 제1등가그룹의 평균값인 6.1로 치환하고, 제2등가그룹의 가중치를 제2등가그룹의 평균값인 1.1로 치환한다.
다음으로, 제2규칙 추출부(140)는 입력값에 따라 분계점을 넘지 못하는 가중치들을 포함하는 등가 그룹을 삭제하고, 역전파 알고리즘을 적용하여 은닉층과 출력층의 분계점을 최적화한다. 분계점이 10인 경우 제2등가그룹은 입력 노드에 어떠한 값이 입력되더라도 분계점을 넘을 수 없다. 따라서, 제2규칙 추출부(140)는 제2등가 그룹을 삭제하고, 제2등가그룹의 삭제에 따라 발생하는 성능 변경을 보정하기 위하여 역전파 알고리즘을 적용하여 분계점을 최적화한다.
다음으로, 제2규칙 추출부(140)는 연결 가중치와 분계점을 없애고 논리 규칙을 추출한다. 제1등가 그룹을 구성하는 입력 노드 A, C, F 중 2개 이상의 노드가 참(true)인 경우 분계점을 넘게 되므로, 도7의 논리 규칙은 "IF 6.1*NumberTrue(A, C, F) > 10.9 THEN Z" 또는 "IF 2 of {A, B, C} THEN Z"와 같이 표현될 수 있다.
본 발명의 실시예에 따르면, 입력 데이터 세트가 이진 데이터가 아닌 연속된 속성을 가지는 데이터일 경우라 하더라도, 입력 데이터 세트를 이진 데이터로 치환하여 NofM알고리즘에 적용함으로써 인공 신경망 모델의 논리 규칙을 정확하게 생성할 수 있다.
도8은 본 발명의 실시예에 따른 인공 신경망 규칙 추출 방법의 순서도이다.
도8을 참조하면, 먼저, 데이터 학습부는 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성한다. 데이터 학습부는 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성한다. 데이터 학습부는 입력 데이터 세트를 이용하여 입력층에서 출력층에 이르기까지 다음 층에 가중치를 부여하는 과정을 반복하여 인공 신경망 모델을 생성하고 분석한다. 데이터 학습부는 인공 신경망 모델의 출력값과 목표값의 차이로 발생하는 값을 이용하여 학습하고 새로운 모형을 구축하고, 반복적으로 출력값과 목표값의 차이를 최소화하는 가중치를 탐색한다. 데이터 학습부는 출력값과 목표값의 차이가 최소화되면 학습을 중지한다(S801).
다음으로, 제1규칙 추출부는 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 입력 데이터 세트의 이진 분류 규칙을 추출한다. 제1규칙 추출부는 입력 데이터 세트를 구분하는 초평면을 형성하고, 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 큐브를 순차적으로 형성하며, 큐브의 범위에 따라 이진 분류 규칙을 추출한다(S802).
다음으로, 이진 분류부는 이진 분류 규칙에 따라 입력 데이터 세트를 이진 데이터로 분류한다. 제1규칙 추출부는 이진 분류 규칙에 따라 큐브에 포함되는 입력 데이터는 "1"의 값으로 치환하고, 큐브에 포함되지 않는 입력 데이터는 "0"의 값으로 치환한다(S803).
다음으로, 제2규칙 추출부는 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성한다. 제2규칙 추출부는 NofM알고리즘을 이용하여 논리 규칙을 생성한다(S804).
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10: 데이터 학습부
20: 제1규칙 추출부
30: 이진 분류부
40: 제2규칙 추출부

Claims (10)

  1. 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성하는 데이터 학습부;
    상기 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 상기 입력 데이터 세트의 이진 분류 규칙을 추출하는 제1규칙 추출부;
    상기 이진 분류 규칙에 따라 상기 입력 데이터 세트를 이진 데이터로 분류하는 이진 분류부; 및
    이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성하는 제2규칙 추출부를 포함하는 인공 신경망 규칙 추출 장치.
  2. 제1항에 있어서, 상기 제1규칙 추출부는,
    상기 입력 데이터 세트를 구분하는 초평면을 형성하고, 상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 큐브를 순차적으로 형성하며, 상기 큐브의 범위에 따라 상기 이진 분류 규칙을 추출하는 인공 신경망 규칙 추출 장치.
  3. 제2항에 있어서, 상기 제1규칙 추출부는,
    초평면 상에 위치하는 최적점을 찾고, 상기 최적점에 따라 가장 많은 수의 입력 데이터를 포함하는 큐브를 형성하는 인공 신경망 규칙 추출 장치.
  4. 제3항에 있어서, 상기 이진 분류부는,
    상기 이진 분류 규칙에 따라 큐브에 포함되는 입력 데이터는 "1"의 값으로 치환하고, 큐브에 포함되지 않는 입력 데이터는 "0"의 값으로 치환하는 인공 신경망 규칙 추출 장치.
  5. 제1항에 있어서,
    상기 입력 데이터 세트는 3개 이상의 속성을 가지는 데이터를 포함하는 인공 신경망 규칙 추출 장치.
  6. 제1항에 있어서,
    상기 데이터 학습부는 역전파 알고리즘을 이용하여 상기 인공 신경망 모델을 생성하는 인공 신경망 규칙 추출 장치.
  7. 제1항에 있어서,
    상기 제2규칙 추출부는 NofM알고리즘을 이용하여 상기 논리 규칙을 생성하는 인공 신경망 규칙 추출 장치.
  8. 데이터 학습부가 입력 데이터 세트를 학습하여 인공 신경망 모델을 생성하는 단계;
    제1규칙 추출부가 상기 입력 데이터 세트를 구분하는 초평면(hyperplane)과 접하는 복수개의 큐브에 따라 상기 입력 데이터 세트의 이진 분류 규칙을 추출하는 단계;
    이진 분류부가 상기 이진 분류 규칙에 따라 상기 입력 데이터 세트를 이진 데이터로 분류하는 단계; 및
    제2규칙 추출부가 이진 데이터로 분류된 입력 데이터 세트에 대하여 은닉층과 출력층의 관계를 탐색하여 인공 신경망의 논리 규칙을 생성하는 단계를 포함하는 인공 신경망 규칙 추출 방법.
  9. 제8항에 있어서, 상기 이진 분류 규칙을 추출하는 단계는,
    상기 입력 데이터 세트를 구분하는 초평면을 형성하는 단계;
    상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 제1큐브를 형성하는 단계;
    상기 제1큐브를 제외한 큐브 중 상기 초평면에 접하면서 제1 레이블을 가지는 입력 데이터를 가장 많이 포함하는 제2큐브를 형성하는 단계;
    상기 제1큐브 및 상기제2큐브의 범위에 따라 상기 이진 분류 규칙을 추출하는 단계를 포함하는 인공 신경망 규칙 추출 방법.
  10. 제8항에 있어서, 상기 논리 규칙을 생성하는 단계는,
    입력층과 은닉층 사이에서 학습된 가중치를 군집으로 분류하는 단계;
    유사 가중치를 가지는 군집을 등가그룹을 형성하는 단계;
    각 등가그룹내의 가중치를 상기 등가그룹 각각의 가중치 평균값으로 치환하는 단계;
    입력값에 따라 분계점을 넘지 못하는 가중치들을 포함하는 등가 그룹을 삭제하는 단계;
    역전파 알고리즘을 적용하여 은닉층과 출력층의 분계점을 최적화하는 단계; 및
    연결 가중치와 분계점을 없애고 상기 논리 규칙을 추출하는 단계를 포함하는 인공 신경망 규칙 추출 방법.
KR1020180023503A 2018-02-27 2018-02-27 인공 신경망 규칙 추출 장치 및 방법 KR102134324B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180023503A KR102134324B1 (ko) 2018-02-27 2018-02-27 인공 신경망 규칙 추출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180023503A KR102134324B1 (ko) 2018-02-27 2018-02-27 인공 신경망 규칙 추출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190102703A KR20190102703A (ko) 2019-09-04
KR102134324B1 true KR102134324B1 (ko) 2020-07-15

Family

ID=67950625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180023503A KR102134324B1 (ko) 2018-02-27 2018-02-27 인공 신경망 규칙 추출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102134324B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025496A (ja) 2011-07-19 2013-02-04 Nippon Telegr & Teleph Corp <Ntt> データ分類装置及び方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728767A (ja) * 1993-07-13 1995-01-31 Hitachi Ltd ファジィルール生成方法及びその装置並びにファジィ推論方法及びその装置
JPH07234852A (ja) * 1994-02-24 1995-09-05 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットからのルール抽出方法および装置
KR101910576B1 (ko) * 2011-11-08 2018-12-31 삼성전자주식회사 인공신경망을 이용하여 신속하게 입력 패턴을 분류하는 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025496A (ja) 2011-07-19 2013-02-04 Nippon Telegr & Teleph Corp <Ntt> データ分類装置及び方法及びプログラム

Also Published As

Publication number Publication date
KR20190102703A (ko) 2019-09-04

Similar Documents

Publication Publication Date Title
Krishnaiah et al. Survey of classification techniques in data mining
CN110263227B (zh) 基于图神经网络的团伙发现方法和***
Chen et al. Convolutional kernel networks for graph-structured data
Sharma et al. Classification through machine learning technique: C4. 5 algorithm based on various entropies
CN107292097B (zh) 基于特征组的中医主症选择方法
Biswas et al. Rule extraction from training data using neural network
CN114463540A (zh) 使用神经网络对图像进行分割
Pourbahrami et al. A geometric-based clustering method using natural neighbors
CN115114484A (zh) 异常事件检测方法、装置、计算机设备和存储介质
Kalifullah et al. Retracted: Graph‐based content matching for web of things through heuristic boost algorithm
Yan et al. A novel clustering algorithm based on fitness proportionate sharing
Biswas et al. A rule generation algorithm from neural network using classified and misclassified data
De Silva et al. Recursive hierarchical clustering algorithm
Farid et al. Boosting k-nearest neighbour (knn) classification using clustering and adaboost methods
Abolkarlou et al. Ensemble imbalance classification: Using data preprocessing, clustering algorithm and genetic algorithm
Yang Optimized and Automated Machine Learning Techniques Towards IoT Data Analytics and Cybersecurity
KR102134324B1 (ko) 인공 신경망 규칙 추출 장치 및 방법
Cabanes et al. A local density-based simultaneous two-level algorithm for topographic clustering
Babatunde et al. Comparative analysis of genetic algorithm and particle swam optimization: An application in precision agriculture
Sun et al. Reinforced contrastive graph neural networks (RCGNN) for anomaly detection
Rashed et al. Multi-objective clustering algorithm using particle swarm optimization with crowding distance (MCPSO-CD)
CN114494753A (zh) 聚类方法、装置、电子设备及计算机可读存储介质
Watanabe et al. Understanding community structure in layered neural networks
KR20200067713A (ko) 오류 트리플 검출 시스템 및 방법
Ahamad et al. Clustering and classification algorithms in data mining

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant