JPH04114264A - Labelling method for output node in self-organized neural network - Google Patents

Labelling method for output node in self-organized neural network

Info

Publication number
JPH04114264A
JPH04114264A JP2234951A JP23495190A JPH04114264A JP H04114264 A JPH04114264 A JP H04114264A JP 2234951 A JP2234951 A JP 2234951A JP 23495190 A JP23495190 A JP 23495190A JP H04114264 A JPH04114264 A JP H04114264A
Authority
JP
Japan
Prior art keywords
output
output nodes
self
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2234951A
Other languages
Japanese (ja)
Inventor
Takashi Aramaki
荒巻 隆志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2234951A priority Critical patent/JPH04114264A/en
Publication of JPH04114264A publication Critical patent/JPH04114264A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To prevent a labelling method to an output node from being different by a constructing person by selecting the prescribed number of output nodes well reflecting feature vectors from the ordered output nodes according to a prescribed rule. CONSTITUTION:Based on an output value from an output node 1 in the case of successively inputting the feature vectors belonging to a certain feature to an input node 2 of a self-organized neural network, ordering to the output node 1 outputting a value within a prescribed order is started from the larger one. Then, according to the prescribed rule based on this order, the prescribed number of output nodes 1 well reflecting the feature vectors are selected from the ordered output nodes 1, and these selected output nodes 1 are labeled to show the feature. Thus, labelling is prevented from being different by the constructing person, and the self-organized neural network having stable classifying ability can be constructed.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

この発明は、各種認識装置や特徴抽出装置、あるいは、
コンピュータそのものに用いられる自己組織化ニューラ
ルネットワークにおける出力ノードのラベル付け方法に
関する。
This invention is applicable to various recognition devices, feature extraction devices, or
This paper relates to a method for labeling output nodes in self-organizing neural networks used in computers themselves.

【従来の技術】[Conventional technology]

近年各種認識装置等に用いられるようになってきたニュ
ーラルネットワークには、種々の構造と分類アルゴリズ
ムをaするニューラルネットワークがある。その一つに
自己組織化特徴写像によって学習が行われるコホーネン
型ニューラルネットワークや適応共鳴理論によって学習
が行われるクロスパーグ型ニューラルネットワーク等に
代表される自己組織化ニューラルネットワークかある。 上記自己組織化ニューラルネットワークに対する学習は
、自己組織化ニューラルネットワークに対して学習ベク
トルだけを呈示し、その際に出力ノードからの出力値が
正しいか誤っているか等を表す教師データは呈示しない
所謂教師無し学習によって行われる。この学習は、自己
組織化ニューラルネットワークにおける入力ノードに学
とベクトルを入力すると、この人力ノードに結合された
複数の出力ノードのうち最大値を出力している出力ノー
ドだけが活性化される。つまり、上記最大値を出力して
いる出力ノードだけ、あるいは、最大値を出力している
出力ノードとその近傍の出力ノードだけについて、結合
に付加されたウェイトベクトルが学習ベクトルに近似す
るように更新されて学習が実行されるのである。 通常、学習済みの自己組織化ニューラルネットワークを
用いて入力ベクトルを属する特徴で分類する場合には、
出力ノードからの出力値に基づいて分類する。ところが
、自己組織化ニューラルネットワークの各出力ノードに
は、予め上記特徴が割り付けられていないのである。し
たがって、学習を行った後に、7台ベクトルが属してい
る特徴がとの出力ノードに割り付けられたかを判別して
おく必要がある。以下、このように学習ベクトルが属し
ている特徴と出力ノードとの対応付けるために、出力ノ
ードに上記特徴を表すラベルを付けることをラベル付け
と言う。 従来より、上述のようなラベル付けは、自己組織化ニュ
ーラルネットワークにある特徴に属する特徴ベクトルを
呈示した際に、最大値を出力する出力ノードに上記入力
ベクトルが属している特徴を表すラベルを付けることに
よって行われている。 具体的には、以下に述べるとおりである。 ここで、分類すべき特徴は(A、B、C,D)であり、
各特徴にはその特徴を表す特徴ベクトルが1個づつ存在
するものとする。この特徴ベクトルを上記特徴A、B、
C,Dに対応付けて、aO+ b O+ 011 + 
d Oとする。また、上記時11kA、I3.C,Dを
識別する自己組織化ニューラルネットワークは3個の出
力ノード(Oo、0 、Ot)を有するものとする。 いま、特徴ベクトルa。、bO+c6+doを上記自己
組緑化ニューラルネットワークに入力した結果、特徴ベ
クトルa。を入力した場合には出力ノードO8が最大値
を出力したとする。同様に、特徴ベクトルb。を入力し
た場合には出力ノードO8が、特徴ベクトルC8を入力
した場合には出力ノード0.が、特徴ベクトルd。を入
力した場合には出力ノード0、が最大値を出力したとす
る。そのような場合には、出力ノード0゜にはラベル“
A、B”を、出カッ−]・01にはラベル“C”を、出
力ノード0.にはラベル“D”を付けるのである。
Neural networks that have come to be used in various recognition devices and the like in recent years include neural networks with various structures and classification algorithms. One of these is a self-organizing neural network, typified by a Kohonen-type neural network in which learning is performed by self-organizing feature mapping and a Crosspurg-type neural network in which learning is performed by adaptive resonance theory. The above-mentioned learning for the self-organizing neural network is performed by a so-called teacher who presents only learning vectors to the self-organizing neural network, but does not present training data indicating whether the output value from the output node is correct or incorrect. This is done by learning without learning. In this learning, when a function and a vector are input to an input node in a self-organizing neural network, only the output node outputting the maximum value among the plurality of output nodes connected to this human-powered node is activated. In other words, the weight vector added to the connection is updated to approximate the learning vector only for the output node that outputs the above maximum value, or only for the output node that outputs the maximum value and its neighboring output nodes. learning is then carried out. Normally, when classifying input vectors by the features to which they belong using a trained self-organizing neural network,
Classify based on the output value from the output node. However, the above characteristics are not assigned in advance to each output node of the self-organizing neural network. Therefore, after learning, it is necessary to determine whether the feature to which the 7-vehicle vector belongs has been assigned to the output node. Hereinafter, in order to associate the feature to which a learning vector belongs with the output node, attaching a label representing the feature to the output node will be referred to as labeling. Conventionally, in the above-mentioned labeling, when a feature vector belonging to a certain feature is presented to a self-organizing neural network, a label representing the feature to which the input vector belongs is attached to the output node that outputs the maximum value. This is done by Specifically, it is as described below. Here, the features to be classified are (A, B, C, D),
It is assumed that each feature has one feature vector representing that feature. This feature vector is used for the above features A, B,
Corresponding to C and D, aO+ b O+ 011 +
Let it be dO. In addition, at the above time, 11 kA, I3. It is assumed that the self-organizing neural network that identifies C and D has three output nodes (Oo, 0, Ot). Now, the feature vector a. , bO+c6+do into the self-assembled greening neural network, the feature vector a. It is assumed that the output node O8 outputs the maximum value when . Similarly, feature vector b. is input, the output node O8 is input, and when the feature vector C8 is input, the output node 0. is the feature vector d. It is assumed that when inputting , output node 0 outputs the maximum value. In such a case, the output node 0° is labeled “
A, B", output].01 is given a label "C", and output node 0. is given a label "D".

【発明が解決しようとする課題】[Problem to be solved by the invention]

上述のように、上記自己組織化ニューラルネットワーク
における出ツノノードのラベル付け方法においては、特
徴ベクトルを呈示した際に最大値を出力する出力ノード
に上記特徴ベクトルが属する特徴を表すようなラベルを
付けるようにしている。 しかしながら、一般には、ある特徴(例えば、文字「大
Jの文字画像情報のパターン)を表す特徴ベクトルは1
個ではなく複数個(例えば、種々の明朝体、ゴチック体
、教科書体等)存在する。そのため、特徴Δの特徴ベク
トルとしてa。、al、a。 8nのn個の特徴ベクトルか存在する場合、自己組織化
ニューラルネットワークに特徴ベクトルa。 a l + 8 !−・・、anを入力すると必ずしも
同し出力ノードが最大値を出力するとは限らない。した
がって、自己組織化ニューラルネットワークを構築する
人によって出力ノードに対するラベルの付け方がまちま
ちなってしまうという問題がある。 そこで、この発明の目的は、自己組織化ニューラルネッ
トワークに特徴ベクトルを呈示した際の出力ノードから
の出力値に基づく所定のルールに従って出力ノードのラ
ベル付けを行なう自己組織化ニューラルネットワークに
おける出力ノードのラベル付け方法を提供することにあ
る。
As mentioned above, in the method for labeling output nodes in the self-organizing neural network, the output node that outputs the maximum value when presenting a feature vector is labeled to represent the feature to which the feature vector belongs. I have to. However, in general, the feature vector representing a certain feature (for example, the pattern of character image information for the character "Large J") is 1
There are multiple types (for example, various Mincho typefaces, Gothic typefaces, textbook typefaces, etc.) rather than just one. Therefore, a is the feature vector of the feature Δ. ,al,a. If there are 8n n feature vectors, the self-organizing neural network has a feature vector a. a l + 8! -..., an does not necessarily mean that the same output node will output the maximum value. Therefore, there is a problem in that the way in which output nodes are labeled varies depending on the person who constructs the self-organizing neural network. Therefore, an object of the present invention is to label an output node in a self-organizing neural network by labeling the output node according to a predetermined rule based on the output value from the output node when a feature vector is presented to the self-organizing neural network. The purpose is to provide a method for attaching the product.

【課題を解決するための手段】[Means to solve the problem]

上記目的を達成するため、第1の発明の自己組織化ニュ
ーラルネットワークにおける出力ノードのラベル付け方
法は、教師無し学Hによって学習された自己組織化ニュ
ーラルネットワークの出力ノードに、分類されるべき特
徴が割付られたことを表すためのラベルを付ける自己組
織化ニューラルネットワークにおける出力ノードのラベ
ル付け方法において、ある特徴に属する特徴ベクトルを
上記自己組織化ニューラルネットワークの入力ノードに
順次人力した際における出力ノードからの出力値に基づ
いて、大きいほうから所定順位以内の値を出力している
出力ノードに順位付けを行い、]−記順位付けされた出
力ノードの中から上記特徴ベクトルをよく反映している
所定数の出力ノードを上記順位に基づく所定のルールに
従って選出し、この選出された出力ノードに上記特徴を
表すラベルを付けることを特徴としている。 また、第2の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法は、第1の発明の
自己組織化ニューラルネットワークにおける出力ノード
のラベル付け方法において、」ユ記特徴ベクトルをよく
反映している出力ノードを選出する際に、各出力ノード
に付けられた上記順位の関数を用いて特徴ベクトルを反
映している度合いを表す得点を夫々の出力ノードに付与
し、この付与された得点の順位に従って」−足囲定数の
出力ノードを選出することを特徴としている。 また、第3の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法は、第1の発明あ
るいは第2の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法において、所定数
の出力ノードに同一のラベルを付ける際に、まず、上記
特徴ベクトルをよく反映している出力ノードのうち上記
特徴ベクトルを最もよく反映している出力ノードにラベ
ル付けを行い、次に、既にラベル付けされた出力ノード
からの出力値の順位が大きいほうから]二足所定順位以
内の値となるような特徴ベクトル以外の未反映特徴ベク
トルを選出し、−ト記未反映特徴ベクトルを最もよく反
映している出力ノードを各出力ノードに付けられた上記
順位に基づいて選出して上記ラベルを付ける処理を、ラ
ベル付けされた出力ノード数が上記所定数になるまで又
は上記未反映特徴ベクトルが無くなるまで繰り変えして
実施することを特徴としている。 また、第4の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法は、第1乃至第3
のいずれかの発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法において、上記出
力ノードに対する順位付けを実施するに際して、上記特
徴ベクトルを上記自己組織化ニューラルネットワークに
入力した際に、予め設定された閾値以上であってかつ大
きいほうから上記所定順位以内の値を出力している出力
ノードに順位付けを行なうことを特徴としている。
In order to achieve the above object, a method for labeling output nodes in a self-organizing neural network according to the first invention includes a method for labeling output nodes in a self-organizing neural network learned by unsupervised learning H. In a method of labeling output nodes in a self-organizing neural network, in which a label is attached to indicate that the output node has been assigned, the feature vectors belonging to a certain feature are sequentially input manually to the input nodes of the self-organizing neural network. Based on the output value of The present invention is characterized in that several output nodes are selected according to a predetermined rule based on the above ranking, and a label representing the above characteristics is attached to the selected output nodes. Furthermore, the method for labeling output nodes in the self-organizing neural network of the second invention better reflects the feature vectors in the method for labeling output nodes in the self-organizing neural network of the first invention. When selecting an output node, a score indicating the degree to which the feature vector is reflected is assigned to each output node using the above ranking function assigned to each output node, and It is characterized by selecting the output node of the "-foot circumference constant according to". Further, the method for labeling output nodes in a self-organizing neural network according to the third invention is the method for labeling output nodes in a self-organizing neural network according to the first invention or the second invention, in which a predetermined number of output nodes are When assigning the same label to the output nodes that best reflect the feature vector, first label the output node that best reflects the feature vector, and then label the output node that best reflects the feature vector, and then Select unreflected feature vectors other than feature vectors that have values within two predetermined ranks (in descending order of the output value from the output node with the highest rank), and select the unreflected feature vectors that best reflect the unreflected feature vectors listed in (g). The process of selecting output nodes based on the rankings assigned to each output node and labeling them is repeated until the number of labeled output nodes reaches the predetermined number or the unreflected feature vectors disappear. It is characterized by the fact that it is carried out by Further, the method for labeling output nodes in a self-organizing neural network according to the fourth invention is as follows.
In the method for labeling output nodes in a self-organizing neural network according to any one of the inventions, when ranking the output nodes, when the feature vector is input to the self-organizing neural network, The method is characterized in that output nodes outputting values that are greater than or equal to a given threshold value and that are within the predetermined ranking are ranked in descending order.

【実施例】【Example】

以下、この発明を図示の実施例により詳細に説明する。 第1実施例 本実施例は、ある特ff1Fに属する特徴ベクトル1を
自己組織化ニューラルネットワークの入力ノードに呈示
した際に、出力ノードから出力される出力値の順位に基
づく得点に従って出力ノードにラベル付けを行なうもの
である。 二こて、 上記分類すべき特徴Fは (F+、Fz、−、Fj、−、Fnl、上記特徴ベクト
ル■は 上記自己組織化ニューラルネットワークの出力ノードは (0+、Ot、・・・OQ、・・、Op)であるとする
。 また、上記自己組織化ニューラルネットワークは既に掌
合が終了しているものとする。 第1図は代表的な自己組織化ニューラルネットワークで
あるコホーネン型ニューラルネットワークの構造概念図
である。このコホーネン型二二一うルネットワークの構
造は、総ての出力ノード11、・・が入力ノード2に対
して結合された構造になっている。このコホーネン型ニ
ューラルネットワークによる特徴ベクトルの分類は、次
のようにして実施される。人力ノード2にはある特徴パ
ターンを表す特徴ベクトルIが入力される。そうすると
、入力された特徴ベクトルlと学習によって設定された
ウェイトベクトルWとに基づいて、所定のアルゴリズム
に従って各出力ノード1,1.・・からの出力値が各結
合毎に算出される。そして、最大値を出力している出力
ノードに付けられたラベルによって表される特徴を分類
結果とするのである。ここで、上記ウェイトベクトルW
は出力ノードlに対応付けて結合毎に付加されている。 第2図は上記自己組織化ニューラルネットワークにおけ
る出力ノードlに対するラベル付け手順のフローチャー
トである。以下、第2図に従って出力ノードlに対する
ラベル付け手順について詳細に説明する。 ステップSlで、上記特徴Fの番号j(1≦j≦n)に
初期値“loがセットされる。 ステップS2で、上記特徴ベクトル■の番号i(1≦i
≦m)に初期値“ビがセットされる。 ステップS3で、j番目の特徴Fjに属する特徴ベクト
ルljiが自己組織化ニューラルネットワークの入力ノ
ード2に呈示される。 ステップS4で、呈示された特徴ベクトル1jiと各ウ
ェイトベクトル+W、、W、、・ 、vB、  ・、W
p)とに基づいて、所定のアルゴリズムによって各出力
ノード1,1.・・・の出力値が算出される。 ステップS5で、上記ステップS4において算出された
出力値のうち大きいほうから第1位までの出力値を出力
するr個の出力ノードが選出される。 この選出されたr個の出カッ−1ζはラベル“Fj”が
付与される出力ノードの候補である。以下、この選出さ
れたr個の出力ノードを[0(i)may−1,0(i
)wax−2,−1O(i)aax−に、−,0(i)
max−r)とする。 ここで、kは出力値の順位(l≦に≦「)であり、O(
i)wax−にはi番目の特徴ベクトルエコiを呈示し
た際に第に位の出力値を出力する出力ノードを表す。 ステップS6で、上記ステップS5において選出された
r個の出ツノノードに対して関数r(k)て与えられる
ラベル得点が付与される。ここで、f(k)は、ラベル
得点を付与する出力ノードに係る出力値の順位にの関数
であり、この関数f(k)をどのように設定するかによ
ってラベル付けの結果が異なるのである。 ステップS7で、上記ステップS5において選出された
r個の出力ノードの累積ラベル得点Gが次式によって算
出される。 G (0(i)maX−k)−G (0(i)ffia
x−k) + f(k)for k=1.−、r ステップS8で、i=mであるか否かが判別される。そ
の結果i=mであれば1番目の特徴Fjに属する総ての
特徴ベクトルIjiの呈示が終了したのでステップSI
Oに進み、そうでなければステップS9に進む。 ステップS9で、特徴ベクトル■の番号lの内容がイン
クリメントされてステップS3に戻り、特徴Fjに属す
る次の特徴ベクトルに対する処理に入る。 ステップSIOで、上記ステップS7において算出され
た累積ラベル得点Gの値のうち大きいほうから第9位ま
での値か付与されたq個の出力ノードが選出される。そ
して、この選出されたq個の出力ノードに特?fll 
F jを表すラヘノビFj−か付けられる。 ステップSllで、j=nであるか否かが判別される。 その結果j=nであれば総ての特fi +−’に属する
総ての特徴ベクトルlの呈示が終了したのでラベル付け
を終了する。一方、そうでなければステップS12に進
む。 ステップS12で、特1fiFの番号Jの内容がインク
リメントされてステップS2に戻り、次の特徴に属する
1番目の特徴ベクトルに対する処理にはいる。そして、
ステップSllにおいてj=nであると判別されるとラ
ベル付けを終了する。 」二連のラベル付け手順において、上記ステップSIO
においである出力ノードにラベルを付与しようとした際
に、既に他のラベルが付与されている場合がある。この
場合には、一つの出カッ〜ドに複数のラベルが付与され
ることになる。こうして一つの出力ノードに複数のラベ
ルが付与された自己組織化ニューラルネットワークによ
って特徴ベクトルを分類した場合には、どうしても個々
の特徴に分類できない特徴ベクトルが生ずる。このよう
な場合には、他のニューラルネットワークとの併用等に
よって個々の特徴に分類すればよい。 次に、本実施例を種々の例を上げてより具体的に説明す
る。 (a)例1 ・分類すべき特徴の個数が4個(n−1)、・各特徴F
に属する特徴ベクトルlの個数が1個(m=l)、 ・関数f(k)−A−k (但し、A≧r、 k=1,
2・、r)、 ・最大累積ラベル得点G (0(i)max−1)を有
する出力ノードのみにラベルイ寸け(q=1)、・出力
ノードの個数が3個(p=3) の場合を考える。 いま、分類すべき特徴を (F 1.F z、F s、F−)、 特徴ベクトルを (I ll+ + 21+ 131+ + 41]、出
力ノードを ((L、Oy、O8,O4) とする。 上記特徴ベクトルI Il+ I□++31.141を
学腎済みの自己組織化ニューラルネットワークに呈示し
た際に、第2図におけるステップS4、ステップS5に
おいて、第1表に示すように第1位(r= I )の出
力値を出力する出力ノードが選出される。 第1表 以下、ステップS6において、各特徴ベクトル毎に第1
位の値を出力する出力ノードにラベル得点(A−1)を
与える。この例の場合にはm=l、p=1であるから、
第1表において各特徴ベクトル毎に第1位を示している
出力ノードの累積ラベル得点Gか最大値となる。したが
って、例1場合には出力ノード01には°F1”、“F
、″がラベル付けされる。 同様に、出力ノードO1にはF3”か、出力ノード03
には“F4#がラベル付けされるのである。 本例においては、ステップS5において出力値が第1位
の出力ノード1個のみを選出しているが、必要に応して
出力値が第1位までの1個の出力ノードを選出しても何
等差し支えない。 (b)例2 ・各特徴Fjに属する特徴ベクトルlJiの個数はm個
、 ・大きい順に第1位までの値を出力する出力ノードにラ
ベル7’J点を付与、 ・関数f(k)=I  (k=1,2.=−、r)、・
最大累積ラベル得点Gを存する出力ノードのみにラベル
付け(q=1)、 ・出力ノードの個数か4個(p=l) の場合を考える。 いま、分類すべき特徴を 文字「人」、 特徴ベクトルが表す内容を 出力ノードを (0+  Ot、Os、O−) とする。 文字「大」に属する明朝体】、明朝体2 ゴチック体、
教科台体の特徴ベクトルを学習済みの自己組織化ニュー
ラルネットワークに呈示した際に、第2表に示すように
第3位までCr= 3 )の出力値を出力する出力ノー
ドが選出される。 以下余白 第2表 そして、第3位までの値を出力した出力ノードに夫々ラ
ベル得点“ビずっが与えられ、さらに全特徴ベクトルに
関してラベル得点の値が累計されて累積ラベル得点Gが
得られる。その結果出力ノードO2に係る累積ラベル得
点が最大値“4”であるから、出力ノード0.に文字「
大」を表すラベル“大“が付けられるのである。 すなわち、本例においては、m個の特徴ベクトルの呈示
に対して夫々r個の出力ノードが選出されるので、一つ
の特徴に対して述べ(*Xr)個の出力ノードがラベル
付け候補として選出される。そして、そのうち選出され
た回数が多いほうから第q位(上述の例ではq=l)ま
での出力ノードにラベル付けするようにしている。つま
り、いずれの特徴ベクトルに対しても第1位以内の値を
(順位には関係無く)満遍なく出力する出力ノードに当
該特徴を表すラベルを付加するのである。 (c)例3 ・各特徴Fjに属する特徴ベクトルIj1の個数はm個
、 ・大きい順に第1位までの値を出力する出力ノードにラ
ベル得点を付与、 ・関数r(k)= A −k (但し、A≧r、 k=
1.2・、「)、 ・第q位までの累積ラベル得点Gを存する出力ノードに
ラベル付け、 ・出力ノードの個数が4個(p=4) の場合を考える。 いま、分類すべき特徴を 文字「大J、 特徴ベクトルが表す内容を 明朝体1. 明朝体2 ゴヂック体、教科何体、 出ツノノードを (0,,0,,03,O,) とする。 文字1人」に属する明り1体1.明朝体2.ゴヂック体
、教科方体の特徴ベクトルを学習済みの自己組織化ニュ
ーラルネットワークに呈示した際に、第3表に示すよう
に第3位まで(r=3)の出力値を出力する出力ノード
が選出される。 第3表 そして、第3位までの値を出力した出力ノードに、ラベ
ル得点(A−k)が与えられ、さらに全特徴ベクトルに
関してラベル得点の値が累計されて累積ラベル(O点G
が得られる。例えば八−とすると、出力ノード0.の累
積ラベル得点 (4−1)+(4−2)→−(4−1)3+2+3=8 出力ノードO2の累積ラベル得点 =2→I + 2 + 2 = 7 出力ノード03の累積ラベル得点 !+3=4 出力ノード04の累積ラベル得点 =l+3+l−5 その結果、例えばQ=2とすると、出力ノード0に係る
累積ラベル得点Gが最大値“8°であり、出力ノードO
1に係る累積ラベル得点Gが第2位の値“7゛であるか
ら、出力ノード01と出力ノードO2とにラベル“大゛
が付けられるのである。 すなわち、本例においては、一つの特徴Fjに対してラ
ベル付けHNliとして選出された述べ(aXr)個の
出力ノードのうち累積ラベル得点Gが高いほうから、換
言すれば、種々の特徴へクトルIjiの呈示に対して、
出力される出力値の順位の高さと選出された回数の多さ
とを加味した得点が高いほうから第9位(」二連の例で
はq−2)までの出力ノードにラベル付けするのである
。 (d)例4 ・各特徴Fjに属する特徴ベクトル■jiの個数はm個
、 ・大きい順に第r位までの値を出力する出力ノードにラ
ベル得点を付与、 ・関数f(k)=(m+I )A−k(但し、A≧r、
 k−1,2,・・、「)、 ・累積ラベル得点が(m+ l )A−に以上である出
力ノードにラベル付け、 ・出力ノードの個数が4個(p=4) の場合を考える。 いま、分類すべき特徴を 文字「大」、 特徴ベクトルが表す内容を 出力ノードを (0,,0,、O,,04) とする。 文字1人」に属する明朝体1.明朝体2.ゴヂック体、
教科告体の特徴ベクトルを学習済みの自己組織化ニュー
ラルネットワークに呈示した際に、第4表に示すように
第3位まで(r= 3 )の出力値を出力する出力ノー
ドか選出される。 第4表 そして、第3位までの値を出力した出力ノードに、ラベ
ル得点(+a+ l )A−kが与えられ、さらに全特
徴ベクトルに関してラベル得点の値が累計されて累積ラ
ベル得点Gが得られる。例えばA=4とすると、m=4
であるから、 出力ノードO8の累積ラベル得点 =(4+ l )’−’+(4+1 )’−’+(4+
l)’ =125→−25+I25=275 出力ノードO2の累積ラベル得点 一25+5+25+25=80 出力ノード03の累積ラベル得点 一5+125=130 出力ノード04の累積ラベル得点 5+125+5=135 その結果、(IIl+I )A−に= l 25以上の
累積ラベル得点Gを有する出力ノードは出力ノード01
.出力ノード03および出力ノード04であるから、出
力ノード01と出力ノード03と出力ノード04とにラ
ベル“大”か付けられるのである。 すなわち、上述の例2および例3の場合には、出力ノー
ドO1は総での特徴ベクトル■jiの呈示に対して最大
値を出力することか1回も無い、それにも拘わらず累積
ラベル得点Gの値が高いためにラベル付けが行われてい
る。そこで、本例にわいては、累積うl\ルjII点G
を特徴ヘクトル数mより大きな数の指数関数で表すので
ある。こうすることによって、もしある特ff1Fjに
属する総ての特徴ベクトルIJ1の呈示に対して一回も
最大値を出力しない出力ノードがある場合には、たとえ
その出力ノードが総ての特徴ベクトル1jlの呈示に対
して第2位の出力値を出力したとしても、その累積ラベ
ル得点は“125“以上にはならないのである。 したがって、文字「犬」に属する種々の特徴ベクトルの
呈示に対して、少なくとも1回は最大値を出力した出力
ノードに対してのみラベル付けがなされるのである。 (e)例5 ・各特徴Fjに属する特徴ベクトルljiの個数はm個
、 ・大きい順に第1位までの値を出力する出力ノードにラ
ベル得点を付与、 ・関数f(k)=(m+1)A−k(但し、A≧r、 
k−1,2,・・・、r)、 ・累積ラベル得点が(m+ 1 )”°を存する出力ノ
ードにラベル付け (但し、koは整数であり、1≦k
o≦r) の場合を考える。 この場合は、上述の例4の場合を更に一般化した例であ
る。 すなわち、本例においては、一つの特ff1Fjに対し
てラベル付け候補として選出された述へ(mXr)個の
出力ノードのうち、文字「大」に属する種々の特徴ベク
トルの呈示に対して少なくとも1回は第ko位以上の値
を出力した出力ノードにラベノビ大”を付けるのである
。 上述のように、第1実施例においては、ラベル得点を求
める際の関数f(k)をどのように設定するかによって
、ラベル付けされる出力ノードを選出する基準が ・総ての特徴ベクトルの呈示に対して所定順位以内の出
力値を満遍なく出力する出力ノード、・総ての特徴ベク
トルの呈示に対して所定順位以内の出力値を出力する回
数が多く、かつ、出力値の順位が高い出力ノード、 ・総ての特徴ベクトルの呈示に対して所定順位以内の出
力値を少なくとも1回は出力する出力ノード のように異なるのである。したがって、構築した自己組
織化ニューラルネットワークを使用する際の識別基準に
応したラベル(す点関数f(k)を選択すればよいので
ある。 上述のように、第1実施例においては、学’P!?fi
みの自己組織化ニューラルネットワークにある特徴Fj
に属する種々の特徴ベクトル1j1を呈示し、その際の
出力ノード1からの出力値の順位kに基づいて、各出力
ノード1にラベル得点「(k)を付与する。そして、各
出カッ−1Nに付与されたラベルiす点を累積した累積
ラベル得点Gに応じて選出された出力ノードに上記特徴
Fjを表すラベノビFj”を付加するのである。 したがって、本実施例によれば、出力値の順位kに基づ
く関数f(k)を用いた所定のルールに従って選出され
た出力ノードに対してラベル付けが行われるので、自己
組織化ニューラルネットワークを構築する人によってラ
ベルの付け方がまちまちになることかない。その結果、
安定した識別能力をaする自己組織化ニューラルネット
ワークを構築できるのである。 」二足実施例においては、各特徴FJに属する特徴ベク
トルI」lの数mは総て同しである必要はなく、種々の
数を取っても何等差し支えない。 第2実施伊1 上記第1実施例においては、ラベル付けされる出力ノー
ドの選出に際して、上述のようにラベル付け手順のフロ
ーチャートにおけるステップ85〜ステツプS7て各出
力ノードに対する累積ラベル得点付けを実施し、この付
与された累積ラベル得点Gの値に応じてラベル付けする
出力ノードを選出するようにしている。 本実施例においては、ラベル付けする出力ノードを、上
述のような累積ラベル得点Gによらずに選出するのであ
る。 (イ)例1 第2図に示す第1実施例のラベル付け手順のフローチャ
ートにおけるステップ66〜ステツプS7およびステッ
プS10を次のように変更する。 すなわち、第2図のステップS5において出力ノードが
選出された回数を谷出力ノード毎にカウントする。そし
て、上記ステップS8でi−一であると判別された場合
には、各出力ノード毎のカウント値を参照して、カウン
ト値(すなわち、選出された回数)の多い方から第9番
目までの出力ノード■を選出してラベル付けを実行する
。 こうすることによって、第1実施例における例2と全く
同じラベル付け結果が得られるのである。 (ロ)例2 第2図に示す第1実施例のラベル付け手順のフローチャ
ートにおけるステップ85〜ステツプS7およびステッ
プSIOを次のように変更する。 すなわち、第2図のステップS4で算出された各出力ノ
ード1の出力値の大きいほうからの順位を、各出力ノー
ド毎に特徴ベクトルに対応付けそメモリに格納する。そ
して、上記ステップS8でi=mであると判別された場
合には、各特徴ベクトル別に各出力ノードにおける出力
値の順位を参照して、総ての特徴ベクトルの呈示に際し
て少なくとし1回は所定順位以内の値を出力した出力ノ
ードを選出してラベル付けを実行する。 こうすることによって、第1実施例における例4あるい
は例5と全く同しラベル付け結果が得られるのである。 上述のように、本実施例によれば、学習済みの自己組織
化ニューラルネットワークにある特徴Fjに属する種々
の特徴ベクトルIjiを入力する。 そして、その際の出力ノード1からの出力値に基づいて
、各出力ノード■こラベル得点を付与することなく所定
の基準に合致した出力ノードを選出し、この選出された
出力ノードに上記時ff1Fjを表ずラベル“Fj”を
付ける。 第3実施例 本実施例は、ある特1hFjを表すラベル“Fj”を複
数個の出力ノードに付ける際に、夫々が特@F」に属す
る特徴ベクトル1jiのうち異なる特徴ベクトルを極め
てよく反映するような出力ノードに対してのみラベル付
けを行うものである。 ここで、 分類すべき特徴Fは [F +、F t、−、Fjs・・、Fn)、上記特徴
ベクトルIは (1tl+ I tt、−、I 2i、−、I 、m)
(I ni r nt、−、I ni、−、I n5i
l、上記自己組織化ニューラルネットワークの出力ノー
ドは (Ol、O!、・・・OQ、・・、 Op)であるとす
る。 また、上記自己組織化ニューラルネットワークは既に学
冒が終了しているものとする。 第3図は本実施例におけるラベル付け手順のフローチャ
ートである。以下、第3図に従って出力ノードlに対す
るラベル付け手順について詳細に説明する。 ここで、ステップ821〜ステツプS29は、第2図に
おけるステップ81〜ステツプS9の処理内容と全く同
じであるから、概略のみを説明する。 上記特徴Fの番号jおよび特徴ベクトルIの番号iに初
期値“ビがセットされた後、自己組織化ニューラルネッ
トワークにある特徴FJに属する特徴ベクトルIjiが
呈示された際の凸出力ノード1、l、・の出力値が算出
される。そして、大きいほうから第1位までの出力値を
出力するr個の出力ノードに対して関数f(k)で与え
られるラベル得点が付与され、累積ラベル得点Gが算出
される。こうして、ある特徴Fjに属する総ての特徴ベ
クトルIjiの呈示が終了した後ステップS30に進む
。 ステップS30で、特徴Pjを表すラベル“Fj”が付
けられた出力ノードの個数■(に初期値“ビがセットさ
れる。 ステップS31で、ステップS27において算出された
累積ラベル得点Cの値か最大値である出力ノードか選出
される。そして、この選出さ石た出力ノードにラベル“
Fj”か付加される。 ステップS32て、総ての累積ラベル得点Gの(lIが
“0“にクリアされる。 ステップS33で、特徴ベクトルlの番号1に初期値“
ビがセットされる。 ステップS34で、特徴ベクトル■j1が呈示された場
合に、大きいほうから第1位までの値を出力する出力ノ
ードの中に上記ステップS31においてラベル付けされ
た出力ノードかあるか否かが、次式によって判定される
。 0(i)+++ax−に#o(j)labelhここて
、O(Dlabel−hは特徴[−jを呈示した場合に
ラベノビFj“が付けられたh個目の出カッ−]・を表
す。 その結果、ラベル付けされた出力ノードが無ければステ
ップS35に進み、そうでなければステップS35.ス
テップS38をスキップする。 ステップS35で、特徴ベクトルIjiが呈示された際
における第1位までの値を出力する出力ノードに対して
上記関数「(k)で与えられるラベル得点が付与される
。 ステップS36で、累積ラベル得点Gが次式によりて算
出される。 G (0(i)Ilax−k)= G (0(i)ma
x−k)+ f(k)for ?1− r ステップS37で、i=mであるか否かか判定される。 その結果i=mであれば、5番目の特ff1Fjに属す
る総ての特徴ベクトルIjjに付いて累積ラベル得点G
の算出が終了したので、ステップS39に進む。一方、
そうでなければ、ステップ538に進む。 ステップS38で、特徴ベクトルIの番号iの内容がイ
ンクリメントされてステップ34に戻り、特徴Fjに属
する次の特徴ベクトルに対する処理に入る。 ステップ339で、ラベル゛Fj”が付けられた出力ノ
ードの個数Hの内容がインクリメントされる。 ステップS40で、H>q(qニラペル付けする出力ノ
ード数)であるか否かが判別される。その結果、I−1
>qであればステップS41に進み、そうでなければス
テップS31に戻ってラベル“Fj”を付ける次の出力
ノードの選出処理に入る。 ステップS41で、j=nであるか否かが判別される。 その結果j=nであれば総ての特fiFに属する総ての
特徴ベクトルfの呈示が終γしたのでラベル付けを終了
する。一方、そうでなければステップS42に進む。 ステップS42で、特fiFの番号jの内容がインクリ
メントされてステップS22に戻り、次の特徴に属する
1番目の特徴ベクトルに対する処理にはいる。そして、
ステップS41においてj=nであると判別されるとラ
ベル付けを終了する。 次に、本実施例をより具体的に説明する。 (A)例! 例1として、第1実施例における例3の場合と同じ場合
を考える。 いま、分類すべき特徴を 文字「人」、 特徴ベクトルが表す内容を 第5表 出力ノードを (0+ 、 Ot、 Os、 04)、関¥i、f(k
)を とする。 文字1大」に鵬する明朝体1.明朝体2.ゴチック体、
教科書体の特徴ベクトルを学と済みの自己組織化ニュー
ラルネットワークに呈示した際に、第5表に示すように
第3位まで(r=3)の出力値を出力する出力ノードが
選出される。 以下余白 上述のようにして第3図のフローチャートにおけるステ
ップS25で選出された上位第3位までの値を出力した
出力ノードに、ラベル得点(A −k)が与えられ、さ
らに全特徴ベクトルに関してラベル得点の値が累計され
て累積ラベル得点Gが得られる。この累積ラベル得点G
を第1累債ラヘル得点Glとケる。例えばΔ−4とする
と、第5表に示すように第1実施例の例3における累積
ラベル得点Gと同じ値の第1累積ラベル得点Glがi4
られる。そして、ステップS31において第1累積ラベ
ル得点Glが最大である第1の出力ノードOにラベル“
大°が付けられるのである。 次に、第1累積ラベル得点G1の内容が“0”にクリア
され、ステップS25において、出力ノード01からの
出力値が第3位以内の値とならないような(すなわち、
出力ノードO2によって反映されないような)未反映特
徴ベクトルを選出する。その結果、本例では教科方体が
未反映特徴ベクトルとして選出される。そして、教科古
体の特徴ベクトルが呈示された場合に1−位第3位まで
の値を出力した出力ノードに、ステップS35において
ラベル得点(A−k)が与えられ、さらに全特徴ベクト
ルに関してラベル得点の値か累計されて第2累積ラヘル
得点G2が得られる。例えばA=4とすると、第5表に
示すように第2累積ラベル得点G2が得られる。そして
、ステップS31において第2累積ラヘル得点G2が最
大である第2の出力ノード03にラベル“犬“が付けら
れる。こうして、2個(q=2)の出力ノードに対する
ラベル付Iすが終了するのである。 その際に、第2累積ラベル得点G2を算出する場合には
、教科書体の特徴ベクトルを呈示した際に既にラベル付
けが成された第1の出カッ−)・01からの出力値は第
3位以内には入らない。したがって、教科書体に係る出
力ノードO1の第2累積ラベル得点G2は0′となり、
出力ノード0には教科古体の特徴ベクトルに基づくラベ
ル付けは行われないのである。さらに、第2累積ラベル
得点G2を算出する際には、上述のように第1累積ラヘ
ル(す点G1がクリヤされて、教科古体の特徴ベクトル
を呈示した際の出力値順位に従ってのみ第2累積ラベル
得点G2が付与される。その結果、第2累積ラベル得点
G2は、明朝体I、明朝体2およびゴチック体の特徴ベ
クトルによる識別結果によって影響されないのである。 その結果、ラベル付けする際に、明朝体1.明朝体2.
ゴチック体の特徴ベクトルに基づいて特徴[大Jを識別
する際の出力ノードO5と、教科古体の特徴ベクトルに
基づいて特徴「犬Jを識別する際の出力ノードO8とに
役割を区別してラベル付1yができるのである。また、
ある特徴ベクトルを最もよく反映していない(端的に言
えば、ある特徴ベクトルの呈示に対して第1位の出ツノ
値を呈しない)出力ノード0.のような出力ノードであ
っても第1累積ラベル得点Glの値か高いためにラベル
が付けられることか防止される。一方、多くの特徴ベク
トルIの呈示に対して頻繁に第3位以内の値を出力しな
いために第1累積ラヘル得点G1が低い出力ノード03
のような出力ノードであっても、ある特定の特徴ベクト
ルを顕著に反映している出力ノードであればラベルが付
けられるのである。 上述のように、第3実施例では、ある特徴Fjに対して
q個の出力ノードにラベル付けする場合において、まず
第1実施例の方法によって第1累積ラベル得点G1の値
が最大である第1の出力ノードにラベル“Fj”を付け
る。次に、既にラベル付けされた第1の出力ノードによ
って反映されていない(換言すれば、既にラベル付けさ
れた第1の出力ノードからの出力値が上位から第r位以
内に入らない)ような未反映特徴ベクトルの呈示に際し
て再付与された第2累積ラベル得点G2か最大の第2の
出力ノードにラベル付けするのである。 以下、上述の処理をラベル付けされた出力ノード数か所
定数qになるか、あるいは未反映特徴ベクトルか無くな
るまで繰り返4〜。 したがって、第3実施例によっである特徴Fjを表ずラ
ベルを複数の出力ノード1に付ける場合には、夫々か特
1fiFjに属する複数の特徴ベクトルIj1のうち異
なる特徴ベクトルを極めてよく反映するような出力ノー
ドに対してのみラベル”Fj“が付けられるのである。 すなわち、特徴F」に属する特徴ベクトルIjlによっ
て、より適確に特徴Fjを識別できるように出力ノード
1に対するラベル付けがてきるのある。 東↓良Ov 上記各実施例においては、ある特1hFjに属する特徴
ベクトル■jlを呈示した際に、無条件に大きいほうか
ら第r(を以内の値を出力する1個の出力ノードを選出
するようにしている。ところが、その場合にはある特徴
ベクトル■コiを反映していない(すなわち、その特徴
ベクトルI31が呈示された場合に極端に低い値を出力
する)出力ノードであっても、上記第r位以内に入って
いさえすればラベル付け候補として選出されてしまうの
である。 そこで、本実施例では、特y!LFjに属する特徴ベク
トル■jiを呈示した際に、第2図におけるステップS
5あるいは第3図におけるステップS25においてラベ
ル付け候補として選出する出力ノードを、予め定められ
た閾値を越えた値であって上位第r位以内の値を出力し
ている出ツノノードを選出するようにするのである。 すなわち、本実施例では、呈示された特徴ベクトルをあ
まり反映しないような出力ノードは、最初からラベル付
けの対象とはしないのである。 次に、本実施例をより具体的に説明する。 (1)例1 例1として、第1実施例における例3の場合と同じ場合
を考える。 いま、分類すべき特徴を 文字1大」、 特徴ベクトルが表す内容を 出力ノードを (0+、02.Os、04)、 関数f(k)を r(k)=A−k (但し、A≧r、 k=1.2.−、r)、とする。 文字「大」に属する明朝体1.明朝体2.ゴヂック体、
教科書体の特徴ベクトルを学習済みの自己組織化ニュー
ラルネットワークに呈示した際に、第6表に示すように
閾値以上であって第3位まで(「−3)の出力値を出力
する出力ノードが選出される。 以下金白 第6表 第6表においては、明朝体lおよびゴチック体の特徴ベ
クトルを呈示した際に出力ノードから出ツノされる第2
位と第3位の値は予め設定された上記閾値上り低いたぬ
、その出力ノードは選出されていない。その結果、Δ−
4とすれば各出力ノード1における累積ラベル得点Gは
第6表に示すようになる。したがって、例えばQ=2と
すると、出力ノード0.に係る累積ラベル得点Gが最大
値“8”であり、出力ノード04に係る累積ラベル得点
Cか第2位の値“4”となる。すなわち、明朝体1およ
びゴチック体の特徴ベクトルをよく反映してぃない出力
ノードO2に係る累積ラベル得点Gの値“3”は、第1
実施例の例3の場合よりも低くなり、出カッ−1” O
tに対するラベル付けは行われないのである。 」−述のように、第4実施例においては、−1−記各実
施例において、ある特徴F jに属する特徴ベクトルI
Jlを呈示した際にラベル付け蛇補となる特徴ベクトル
を選出する場合、予め定められた閾値を越えた値であっ
て」三位第r位以内の値を出力している出力ノードを選
出するようにしている。したがって、特徴Fjに属する
特徴ベクトルIjiに基づく分類には貢献しないような
出力ノードに対してはラベル付けは行われず、特徴Fj
の分類に有効な出力値を出力する出力ノードに対しての
みラベル付けが行われるのである。
Hereinafter, the present invention will be explained in detail with reference to illustrated embodiments. First Example In this example, when a feature vector 1 belonging to a certain feature ff1F is presented to an input node of a self-organizing neural network, the output node is labeled according to a score based on the rank of the output value output from the output node. It is used for attaching. The above feature F to be classified is (F+, Fz, -, Fj, -, Fnl, the above feature vector ■ is the output node of the above self-organizing neural network is (0+, Ot, ... OQ, ... , Op). It is also assumed that the above self-organizing neural network has already completed its configuration. Figure 1 shows the structure of a Kohonen neural network, which is a typical self-organizing neural network. This is a conceptual diagram.The structure of this Kohonen-type neural network is such that all output nodes 11,... are connected to input node 2.Characteristics of this Kohonen-type neural network Vector classification is carried out as follows.A feature vector I representing a certain feature pattern is input to the human powered node 2.Then, the input feature vector l and the weight vector W set by learning are combined. Based on this, the output value from each output node 1, 1, etc. is calculated for each connection according to a predetermined algorithm.Then, it is represented by the label attached to the output node that outputs the maximum value. The features are used as classification results.Here, the weight vector W
is added to each connection in association with the output node l. FIG. 2 is a flowchart of the labeling procedure for the output node l in the self-organizing neural network. The labeling procedure for the output node l will be described in detail below with reference to FIG. In step Sl, the initial value "lo" is set to the number j (1≦j≦n) of the feature F. In step S2, the number i (1≦i
In step S3, the feature vector lji belonging to the j-th feature Fj is presented to the input node 2 of the self-organizing neural network. In step S4, the presented feature Vector 1ji and each weight vector +W, , W, , vB, , W
p), each output node 1, 1 . The output value of ... is calculated. In step S5, r output nodes are selected that output the first largest output value among the output values calculated in step S4. The selected r output nodes -1ζ are output node candidates to which the label "Fj" is assigned. Below, these r selected output nodes are defined as [0(i)may−1,0(i
)wax-2,-1O(i)aax-to,-,0(i)
max-r). Here, k is the rank of the output value (l≦≦“), and O(
i) wax- represents an output node that outputs the output value of the th place when the i-th feature vector eco i is presented. In step S6, label scores given by the function r(k) are assigned to the r outgoing nodes selected in step S5. Here, f(k) is a function of the rank of the output value related to the output node to which a label score is assigned, and the labeling result differs depending on how this function f(k) is set. . In step S7, the cumulative label scores G of the r output nodes selected in step S5 are calculated using the following equation. G (0(i)maX-k)-G (0(i)ffia
x−k) + f(k)for k=1. -, r In step S8, it is determined whether or not i=m. As a result, if i=m, the presentation of all feature vectors Iji belonging to the first feature Fj has been completed, so step SI
If not, proceed to step S9. In step S9, the contents of the number l of the feature vector ■ are incremented, and the process returns to step S3 to begin processing for the next feature vector belonging to the feature Fj. In step SIO, q output nodes are selected, to which the ninth largest cumulative label score G calculated in step S7 is assigned. Then, what is special about these q selected output nodes? fll
Rahenobi Fj-, which represents F j, is added. In step Sll, it is determined whether j=n. As a result, if j=n, the presentation of all feature vectors l belonging to all features fi +-' has been completed, and therefore labeling is completed. On the other hand, if not, the process proceeds to step S12. In step S12, the contents of the number J of the special 1fiF are incremented, and the process returns to step S2, whereupon processing is started for the first feature vector belonging to the next feature. and,
If it is determined in step Sll that j=n, labeling ends. ” In the double labeling procedure, the above step SIO
When trying to assign a label to an output node that is a scent, another label may have already been assigned. In this case, multiple labels will be assigned to one output card. When feature vectors are classified using a self-organizing neural network in which multiple labels are assigned to one output node, some feature vectors inevitably arise that cannot be classified into individual features. In such a case, it is sufficient to classify the information into individual characteristics by using it in combination with other neural networks. Next, this embodiment will be described in more detail by citing various examples. (a) Example 1 - The number of features to be classified is 4 (n-1), - Each feature F
The number of feature vectors l belonging to
2., r), - Label only the output node with the maximum cumulative label score G (0 (i) max - 1) (q = 1), - Number of output nodes is 3 (p = 3). Consider the case. Now, assume that the features to be classified are (F 1.F z, F s, F-), the feature vector is (Ill+ + 21+ 131+ + 41), and the output node is ((L, Oy, O8, O4). When the above-mentioned feature vector I Il+ I An output node that outputs the output value of I ) is selected. In Table 1 below, in step S6, the
A label score (A-1) is given to the output node that outputs the value of the position. In this example, m=l and p=1, so
The cumulative label score G of the output node that ranks first for each feature vector in Table 1 is the maximum value. Therefore, in Example 1, output node 01 has °F1", "F
,'' are labeled. Similarly, output node O1 is labeled with F3'' or output node 03
is labeled with "F4#." In this example, only one output node with the first output value is selected in step S5, but if necessary, the output node with the first output value is selected. There is no problem in selecting one output node up to the highest rank. (b) Example 2 - The number of feature vectors lJi belonging to each feature Fj is m. - Output that outputs the values up to the first rank in descending order. Assign a label 7'J point to the node, ・Function f(k)=I (k=1, 2.=-, r), ・
Consider the case where only the output node with the maximum cumulative label score G is labeled (q=1), and the number of output nodes is 4 (p=l). Now, let us assume that the feature to be classified is the character "person", and the content represented by the feature vector is the output node (0+ Ot, Os, O-). Mincho typeface belonging to the character “large”], Mincho typeface 2 Gothic typeface,
When the feature vector of the subject is presented to the learned self-organizing neural network, the output nodes that output the output values of Cr=3) are selected as shown in Table 2. Table 2 below: A label score "Biz" is given to each of the output nodes that output the values up to the third place, and the label score values for all feature vectors are added up to obtain a cumulative label score G. As a result, the cumulative label score related to output node O2 is the maximum value "4", so the character "
The label "large" representing "large" is attached. That is, in this example, since r output nodes are selected for each presentation of m feature vectors, (*Xr) output nodes are selected as labeling candidates for one feature. be done. Then, the qth output nodes (q=l in the above example) are labeled, starting from the one that has been selected the most times. In other words, a label representing the feature is added to an output node that uniformly outputs a value within the first rank for any feature vector (regardless of the rank). (c) Example 3 ・The number of feature vectors Ij1 belonging to each feature Fj is m. ・A label score is given to the output node that outputs the first value in descending order. ・Function r(k) = A − k (However, A≧r, k=
1.2., "), - Label the output nodes that have cumulative label scores G up to the qth rank, - Consider the case where the number of output nodes is 4 (p = 4). Now, the features to be classified Let the character ``Large J'' represent the content represented by the feature vector in Mincho font 1. Mincho font 2 Godik font, how many subjects are there, and the output horn node be (0,, 0,, 03, O,). 1 character.'' 1 light belonging to 1. Mincho font 2. When the feature vectors of the Godik typeface and the subject square are presented to the trained self-organizing neural network, the output nodes that output the top three output values (r = 3) are selected as shown in Table 3. be done. Table 3 Then, a label score (A-k) is given to the output node that outputs the values up to the third place, and the label score values are accumulated for all feature vectors to obtain a cumulative label (O point G
is obtained. For example, if the output node is 8-, then the output node is 0. Cumulative label score of (4-1) + (4-2) → -(4-1) 3 + 2 + 3 = 8 Cumulative label score of output node O2 = 2 → I + 2 + 2 = 7 Cumulative label score of output node 03! +3=4 Cumulative label score of output node 04=l+3+l-5 As a result, for example, if Q=2, the cumulative label score G related to output node 0 is the maximum value "8°," and output node O
Since the cumulative label score G related to No. 1 is the second highest value "7", the label "large" is attached to the output node 01 and the output node O2. That is, in this example, among the (aXr) output nodes selected as labeling HNli for one feature Fj, the one with the highest cumulative label score G, in other words, In response to the presentation of
The output nodes with the highest scores, taking into account the high ranking of output values and the number of times they have been selected, are labeled from the ninth position (q-2 in the double example) to the output nodes. (d) Example 4 ・The number of feature vectors ji belonging to each feature Fj is m. ・A label score is assigned to the output node that outputs the values up to the rth rank in descending order. ・Function f(k)=(m+I ) A−k (However, A≧r,
k-1, 2,..., "), ・Label the output nodes whose cumulative label score is greater than (m+l)A-, ・Consider the case where the number of output nodes is 4 (p=4) Now, suppose that the feature to be classified is the character "large", and the content represented by the feature vector is the output node (0,,0,,O,,04). Mincho typeface 1, which belongs to ``Character 1 person''. Mincho font 2. Godgic typeface,
When the feature vector of the subject report is presented to the trained self-organizing neural network, the output nodes that output the top three (r=3) output values are selected as shown in Table 4. Table 4 Then, the label score (+a+l)A−k is given to the output node that outputs the values up to the third place, and the label score values are accumulated for all feature vectors to obtain the cumulative label score G. It will be done. For example, if A=4, m=4
Therefore, cumulative label score of output node O8 = (4+l)'-'+(4+1)'-'+(4+
l)' = 125 → -25 + I25 = 275 Cumulative label score of output node O2 - 25 + 5 + 25 + 25 = 80 Cumulative label score of output node 03 - 5 + 125 = 130 Cumulative label score of output node 04 5 + 125 + 5 = 135 As a result, (IIl + I)A- = l An output node with a cumulative label score G of 25 or more is output node 01
.. Since they are the output nodes 03 and 04, the labels "large" are attached to the output nodes 01, 03, and 04. That is, in the case of Examples 2 and 3 described above, the output node O1 never outputs the maximum value for the total presentation of the feature vector ■ji, and despite this, the cumulative label score G Labeling is done because the value of is high. Therefore, in this example, the cumulative sum is
is expressed as an exponential function of a number larger than the number of feature hectares m. By doing this, if there is an output node that does not output the maximum value even once for the presentation of all feature vectors IJ1 belonging to a certain feature ff1Fj, even if that output node Even if the second highest output value is output for the presentation, the cumulative label score will not exceed "125". Therefore, for the presentation of various feature vectors belonging to the character "dog", only the output node that outputs the maximum value at least once is labeled. (e) Example 5 ・The number of feature vectors lji belonging to each feature Fj is m. ・A label score is given to the output node that outputs the first value in descending order. ・Function f(k) = (m+1) A−k (However, A≧r,
k-1, 2,..., r), ・Label the output node whose cumulative label score is (m+ 1)"° (however, ko is an integer and 1≦k
Consider the case where o≦r). This case is a more generalized example of the above-mentioned example 4. That is, in this example, among the (mXr) output nodes selected as labeling candidates for one feature ff1Fj, at least one In this case, the output node that outputs a value equal to or higher than the koth rank is marked with "Labenovy large".As mentioned above, in the first embodiment, how to set the function f(k) when calculating the label score. The criteria for selecting the output nodes to be labeled depends on whether the An output node that outputs an output value within a predetermined rank a large number of times and has a high output value rank. - An output node that outputs an output value within a predetermined rank at least once for the presentation of all feature vectors. Therefore, it is only necessary to select a label (point function f(k)) that corresponds to the identification criteria when using the constructed self-organizing neural network.As mentioned above, the first In the example, Gaku'P!?fi
Features Fj in the self-organizing neural network
Various feature vectors 1j1 belonging to the output node 1 are presented, and a label score ``(k)'' is assigned to each output node 1 based on the rank k of the output value from the output node 1 at that time. A label Fj'' representing the feature Fj is added to the selected output node according to the cumulative label score G obtained by accumulating the points assigned to the label i. Therefore, according to this embodiment, since output nodes selected according to a predetermined rule using a function f(k) based on the rank k of output values are labeled, a self-organizing neural network is constructed. The way people label something varies depending on the person doing it. the result,
A self-organizing neural network with stable discrimination ability can be constructed. In the two-legged embodiment, the number m of feature vectors I'l belonging to each feature FJ does not necessarily have to be the same, and there is no problem in having various numbers. Second Example 1 In the first example described above, when selecting output nodes to be labeled, cumulative label scoring is performed for each output node in steps 85 to S7 in the flowchart of the labeling procedure as described above. , an output node to be labeled is selected according to the value of the assigned cumulative label score G. In this embodiment, output nodes to be labeled are selected without depending on the cumulative label score G as described above. (A) Example 1 Steps 66 to S7 and S10 in the flowchart of the labeling procedure of the first embodiment shown in FIG. 2 are changed as follows. That is, in step S5 of FIG. 2, the number of times an output node is selected is counted for each valley output node. If it is determined in step S8 that the node is i-1, the count value for each output node is referred to, and the ninth node is selected from the node with the highest count value (i.e., the number of times selected). Select the output node ■ and perform labeling. By doing this, exactly the same labeling result as Example 2 in the first embodiment can be obtained. (b) Example 2 Steps 85 to S7 and step SIO in the flowchart of the labeling procedure of the first embodiment shown in FIG. 2 are changed as follows. That is, the ranking from the largest output value of each output node 1 calculated in step S4 of FIG. 2 is associated with a feature vector for each output node and stored in the memory. If it is determined in step S8 that i=m, the ranking of the output value at each output node is referred to for each feature vector, and the predetermined number of times is determined at least once when all feature vectors are presented. Output nodes that output values within the ranking are selected and labeled. By doing this, it is possible to obtain labeling results exactly the same as in Example 4 or Example 5 in the first embodiment. As described above, according to this embodiment, various feature vectors Iji belonging to a feature Fj in a trained self-organizing neural network are input. Then, based on the output value from output node 1 at that time, output nodes that meet the predetermined criteria are selected without assigning a label score to each output node. Attach the label “Fj” without representing it. Third Embodiment In this embodiment, when attaching the label "Fj" representing a certain feature 1hFj to a plurality of output nodes, different feature vectors among the feature vectors 1ji belonging to "Special@F" are reflected extremely well. Labeling is performed only on such output nodes. Here, the feature F to be classified is [F +, F t, -, Fjs..., Fn), and the feature vector I is (1tl+ I tt, -, I 2i, -, I, m)
(I ni r nt, -, I ni, -, I n5i
l, the output nodes of the above self-organizing neural network are (Ol, O!, . . . OQ, . . . Op). Further, it is assumed that the self-organizing neural network described above has already completed its academic studies. FIG. 3 is a flowchart of the labeling procedure in this embodiment. The labeling procedure for the output node l will be described in detail below with reference to FIG. Here, since steps 821 to S29 are exactly the same as the processing contents of steps 81 to S9 in FIG. 2, only an outline will be described. After the initial value "bi" is set to the number j of the feature F and the number i of the feature vector I, convex output nodes 1 and l when the feature vector Iji belonging to the feature FJ in the self-organizing neural network is presented. , · are calculated.Then, label scores given by the function f(k) are assigned to the r output nodes that output output values from the largest to the first, and the cumulative label score is G is calculated. After the presentation of all feature vectors Iji belonging to a certain feature Fj is completed, the process proceeds to step S30. In step S30, the number of output nodes to which the label "Fj" representing the feature Pj is attached is calculated. () An initial value "B" is set to (.) In step S31, the output node that has the maximum value or the value of the cumulative label score C calculated in step S27 is selected. label"
In step S32, (lI of all cumulative label scores G is cleared to "0". In step S33, the initial value "" is added to number 1 of the feature vector l.
B is set. In step S34, when the feature vector ■j1 is presented, the next step is to determine whether or not there is an output node labeled in step S31 among the output nodes that output the values from the largest to the first rank. Determined by the formula. 0(i)+++ax-, #o(j)labelh, where O(Dlabel-h represents the feature [h-th output with label Fj" attached when -j is presented]. As a result, if there is no labeled output node, the process proceeds to step S35, otherwise, steps S35 and S38 are skipped.In step S35, the values up to the first rank when the feature vector Iji is presented are A label score given by the above function "(k)" is assigned to the output node to be output. In step S36, the cumulative label score G is calculated by the following formula: G (0(i)Ilax-k) = G (0(i)ma
x−k)+f(k)for? 1-r In step S37, it is determined whether i=m. As a result, if i=m, the cumulative label score G for all feature vectors Ijj belonging to the fifth feature ff1Fj
Since the calculation of has been completed, the process advances to step S39. on the other hand,
Otherwise, proceed to step 538. In step S38, the content of number i of feature vector I is incremented, and the process returns to step S34, where processing begins for the next feature vector belonging to feature Fj. In step 339, the content of the number H of output nodes attached with the label "Fj" is incremented. In step S40, it is determined whether H>q (the number of output nodes to which q is attached). As a result, I-1
If >q, the process advances to step S41; if not, the process returns to step S31 and enters the process of selecting the next output node to which the label "Fj" is attached. In step S41, it is determined whether j=n. As a result, if j=n, the presentation of all the feature vectors f belonging to all the special fiFs has been completed, so labeling ends. On the other hand, if not, the process advances to step S42. In step S42, the content of the special fiF number j is incremented, and the process returns to step S22, whereupon processing begins for the first feature vector belonging to the next feature. and,
If it is determined in step S41 that j=n, labeling ends. Next, this example will be explained in more detail. (A) Example! As Example 1, consider the same case as Example 3 in the first embodiment. Now, let the character to be classified be the character "person", and the content represented by the feature vector be the output node in Table 5 (0+, Ot, Os, 04), Seki\i, f(k
). Mincho font 1. Mincho font 2. gothic type,
When the feature vectors of the textbook are presented to a well-known self-organizing neural network, output nodes that output the top three (r=3) output values are selected as shown in Table 5. A label score (A - k) is given to the output node that outputs the top three values selected in step S25 in the flowchart of FIG. The score values are accumulated to obtain a cumulative label score G. This cumulative label score G
Let be the first debt Rahel score Gl. For example, if Δ-4, the first cumulative label score Gl, which is the same value as the cumulative label score G in Example 3 of the first embodiment, is i4 as shown in Table 5.
It will be done. Then, in step S31, the first output node O having the maximum first cumulative label score Gl is labeled "
It is given a large degree. Next, the content of the first cumulative label score G1 is cleared to "0", and in step S25, the output value from the output node 01 is not within the third place (i.e.,
An unreflected feature vector (such as one that is not reflected by the output node O2) is selected. As a result, in this example, the subject square is selected as the unreflected feature vector. Then, in step S35, a label score (A-k) is given to the output node that outputs the values from the 1st to the 3rd place when the feature vector of the old subject is presented, and furthermore, the label score (Ak) is given for all the feature vectors. The values of are accumulated to obtain a second cumulative Rahel score G2. For example, if A=4, the second cumulative label score G2 is obtained as shown in Table 5. Then, in step S31, the label "dog" is attached to the second output node 03 with the highest second cumulative Rahel score G2. In this way, labeling of two (q=2) output nodes is completed. At that time, when calculating the second cumulative label score G2, the output value from the first output score G2, which has already been labeled when the feature vector of the textbook body was presented, is It doesn't fall within that range. Therefore, the second cumulative label score G2 of the output node O1 related to the textbook body is 0',
Output node 0 is not labeled based on the feature vector of the old textbook. Furthermore, when calculating the second cumulative label score G2, the first cumulative label score G1 is cleared as described above, and the second cumulative label score is calculated only according to the output value rank when the feature vector of the subject old body is presented. A label score G2 is assigned.As a result, the second cumulative label score G2 is not affected by the identification results of the feature vectors of Mincho font I, Mincho font 2, and Gothic font.As a result, when labeling , Mincho typeface 1. Mincho typeface 2.
The output node O5 for identifying the feature [Large J] based on the feature vector of Gothic font and the output node O8 for identifying the feature ``Dog J'' based on the feature vector of the subject ancient font are labeled with their roles distinguished. 1y can be done.Also,
Output node 0. which does not best reflect a certain feature vector (to put it simply, does not exhibit the highest output value for the presentation of a certain feature vector). Even an output node such as ``Gl'' is prevented from being labeled because the value of the first cumulative label score Gl is high. On the other hand, the output node 03 has a low first cumulative Rahel score G1 because it does not frequently output values within the third place when many feature vectors I are presented.
Even output nodes like , can be labeled if they significantly reflect a certain feature vector. As described above, in the third embodiment, when labeling q output nodes for a certain feature Fj, first the method of the first embodiment is used to label the first cumulative label score G1 having the maximum value. Add a label "Fj" to the output node of No. 1. Next, if the output value from the already labeled first output node is not reflected by the already labeled first output node (in other words, the output value from the already labeled first output node does not fall within the rth order from the top), The second output node with the maximum second cumulative label score G2 re-applied upon presentation of the unreflected feature vector is labeled. Thereafter, the above process is repeated from 4 to 4 until the number of labeled output nodes reaches a predetermined number q or there are no unreflected feature vectors. Therefore, when a label is attached to a plurality of output nodes 1 to represent a certain feature Fj according to the third embodiment, a different feature vector among the plurality of feature vectors Ij1 belonging to each feature Fj is very well reflected. The label "Fj" is attached only to output nodes that are ``Fj''. That is, the output node 1 is labeled by the feature vector Ijl belonging to the feature F so that the feature Fj can be more accurately identified. East ↓ Good Ov In each of the above embodiments, when a feature vector ■jl belonging to a certain special 1hFj is presented, one output node that outputs a value within the r-th (from the largest one) is unconditionally selected. However, in that case, even if the output node does not reflect a certain feature vector I (i.e., outputs an extremely low value when that feature vector I31 is presented), As long as it is within the r-th rank, it will be selected as a labeling candidate. Therefore, in this embodiment, when the feature vector ■ji belonging to y!LFj is presented, the step in FIG. S
5 or in step S25 in FIG. 3, the output node to be selected as a labeling candidate is selected as an output node that outputs a value exceeding a predetermined threshold and within the top r rank. That's what I do. That is, in this embodiment, an output node that does not reflect the presented feature vector very much is not labeled from the beginning. Next, this example will be explained in more detail. (1) Example 1 As Example 1, consider the same case as Example 3 in the first embodiment. Now, the feature to be classified is 1 large letter, the output node is (0+, 02.Os, 04), the content represented by the feature vector is r, k=1.2.-, r). Mincho font belonging to the character “dai” 1. Mincho font 2. Godgic typeface,
When the feature vector of the textbook body is presented to the trained self-organizing neural network, as shown in Table 6, the output nodes that output the output value of the third place (“-3”) that is equal to or higher than the threshold value are In Table 6 of the Kinpaku Table 6 below, the second horn output from the output node when presenting the feature vectors of Mincho font l and Gothic font is shown.
Since the values of the first and third places are lower than the preset threshold, the output node is not selected. As a result, Δ−
4, the cumulative label score G at each output node 1 will be as shown in Table 6. Therefore, for example, if Q=2, the output node 0. The cumulative label score G related to the output node 04 is the maximum value "8", and the cumulative label score C related to the output node 04 is the second highest value "4". That is, the value "3" of the cumulative label score G related to the output node O2, which does not reflect the feature vectors of the Mincho font 1 and the Gothic font well, is the first
It is lower than in Example 3 of the embodiment, and the output is 1" O
No labeling is performed for t. - As mentioned above, in the fourth embodiment, in each of the embodiments -1-, the feature vector I belonging to a certain feature F j
When selecting a feature vector to serve as a label complement when Jl is presented, select an output node that outputs a value that exceeds a predetermined threshold and is within the third or rth rank. That's what I do. Therefore, labeling is not performed on output nodes that do not contribute to classification based on the feature vector Iji belonging to the feature Fj, and the output nodes that do not contribute to classification based on the feature vector Iji belonging to the feature Fj
Labeling is performed only on output nodes that output output values that are valid for classification.

【発明の効果】【Effect of the invention】

以上より明らかなように、第1の発明の自己組織化ニュ
ーラルネットワークにおける出カッ−[・のラベル付け
方法は、学習済みの自己組織化ニューラルネットワーク
にある特徴に属する特徴ベクトルを入力した際に、大き
いほうから所定順位以内の値を出力している出力ノード
に順位付けを行い、この順位付けされた出力ノードの中
から上記特徴ベクトルをよく反映している出力ノードを
上記順位に基づく所定のルールに従って選出する。 そして、この選出された出力ノードに上記特徴を表すラ
ベルを付けるようにしているので、上記順位に基づく所
定のルールに従ってラベル付けが行われる。 したがって、自己組織化ニューラルネットワークを構築
する人によってラベル付けがまちまちになることがなく
、安定した分類能力を有する自己組織化ニューラルネッ
トワークを構築できる。 また、第2の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法は、上記第1の発
明において上記特徴ベクトルをよく反映している出力ノ
ードを選出する際に、各出力ノードに付けられた上記順
位の関数による得点を夫々の出力ノードに付与し、この
得点の順位に従って上記出力ノードを選出するようにし
ているので、上記関数を種々設定することによって上記
出力ノードの選出基準を変更でき、構築する自己組織化
ニューラルネットワークの分類基準を変更できる。 また、第3の発明の自己組織化ニューラルネットワーク
における出力ノードのラベル付け方法は、上記第1の発
明あるいは第2の発明において、所定数の出力ノードに
同一のラベルを付ける際に、まず上記特徴ベクトルを最
らよく反映している第1の出力ノードにラベルを付け、
次に既にラベル付けされた出力ノードによって反映され
ない未反映特徴ベクトルを最もよく反映している第2の
出力ノードに上記ラベルを付けるようにしているので、
夫々が、ある特徴に属する特徴ベクトルのうち異なる特
徴ベクトルを適確に反映するような出力ノードに対して
のみラベル付けを行なうことができる。 したがって、安定性および精度の高い分類能力を有する
自己組織化ニューラルネットワークを構築できる。 また、第4の発明の自己組織化ニューラルネットワーク
にお1する出力ノードのラベル付け方法は、上記第1の
発明乃至第3の発明のいずれかにおいて、」二足出力ノ
ードに対する順位付けを実施する際に、予め設定された
閾値以上であってかつ大きいほうから上記所定順位以内
の値を出力している出力ノードに順位付けを行なうよう
にしているので、特徴へりトルの分類に有効な出力ノー
ドに対してのみラベル付けを行なうことができる。 したがって、安定性および有用性の高い分類能力を有す
る自己組織化ニューラルネットワークを構築できる。
As is clear from the above, the method for labeling the output in the self-organizing neural network of the first invention, when a feature vector belonging to a certain feature is input to the trained self-organizing neural network, Output nodes that output values within a predetermined rank are ranked starting from the largest one, and from among the output nodes that have been ranked, output nodes that reflect the feature vector well are selected according to a predetermined rule based on the rank. Select according to the following. Then, since a label representing the above-mentioned characteristics is attached to the selected output node, labeling is performed according to a predetermined rule based on the above-mentioned ranking. Therefore, the labeling does not vary depending on the person constructing the self-organizing neural network, and a self-organizing neural network having stable classification ability can be constructed. Furthermore, the method for labeling output nodes in the self-organizing neural network of the second invention is such that when selecting an output node that well reflects the feature vector in the first invention, A score based on the above ranking function is given to each output node, and the output node is selected according to the ranking of this score, so the selection criteria for the output node can be changed by setting various functions. , the classification criteria of the self-organizing neural network to be constructed can be changed. Further, in the method for labeling output nodes in a self-organizing neural network according to the third invention, in the first invention or the second invention, when labeling a predetermined number of output nodes with the same label, first the above-mentioned characteristics are applied. Label the first output node that best reflects the vector,
Next, since the above label is attached to the second output node that best reflects the unreflected feature vector that is not reflected by the already labeled output nodes,
It is possible to label only those output nodes, each of which accurately reflects a different feature vector among the feature vectors belonging to a certain feature. Therefore, a self-organizing neural network with high stability and highly accurate classification ability can be constructed. Further, the method for labeling output nodes to be outputted to a self-organizing neural network according to the fourth invention is the method according to any one of the first to third inventions described above, in which "ranking of bipedal output nodes is carried out. In this case, output nodes that are outputting values that are greater than a preset threshold and within the above-mentioned predetermined ranking are ranked from the highest to the highest, so output nodes that are effective for classifying feature Labels can only be applied to. Therefore, a self-organizing neural network with highly stable and useful classification ability can be constructed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明に係る自己組織化ニコーラルネソトワ
ークの一実施例の横進概念図、第2図は」4記自己組織
化ニューラルネットワークに対するラベル付け手順のフ
ローチャート、第3図は第2図とは異なるラベル付け手
順のフローチャートである。 l・・出力ノード、      2・ 入力ノード。 第 3
Fig. 1 is a conceptual diagram of the lateral progression of one embodiment of the self-organizing neural network according to the present invention, Fig. 2 is a flowchart of the labeling procedure for the self-organizing neural network described in 4. 2 is a flowchart of a labeling procedure different from that shown in the figure. 1. Output node, 2. Input node. Third

Claims (4)

【特許請求の範囲】[Claims] (1)教師無し学習によって学習された自己組織化ニュ
ーラルネットワークの出力ノードに、分類されるべき特
徴が割付られたことを表すためのラベルを付ける自己組
織化ニューラルネットワークにおける出力ノードのラベ
ル付け方法において、ある特徴に属する特徴ベクトルを
上記自己組織化ニューラルネットワークの入力ノードに
順次入力した際における出力ノードからの出力値に基づ
いて、大きいほうから所定順位以内の値を出力している
出力ノードに順位付けを行い、 上記順位付けされた出力ノードの中から上記特徴ベクト
ルをよく反映している所定数の出力ノードを上記順位に
基づく所定のルールに従って選出し、 この選出された出力ノードに上記特徴を表すラベルを付
けることを特徴とする自己組織化ニューラルネットワー
クにおける出力ノードのラベル付け方法。
(1) In a method for labeling output nodes in a self-organizing neural network, in which a label is attached to the output node of a self-organizing neural network learned by unsupervised learning to indicate that a feature to be classified has been assigned. , based on the output values from the output nodes when the feature vectors belonging to a certain feature are sequentially input to the input nodes of the above self-organizing neural network, the output nodes that output values within a predetermined ranking are ranked in descending order of magnitude. Then, from among the ranked output nodes, a predetermined number of output nodes that well reflect the feature vector are selected according to a predetermined rule based on the ranking, and the features are assigned to the selected output nodes. A method for labeling output nodes in a self-organizing neural network, which is characterized by attaching labels that represent output nodes.
(2)請求項1に記載の自己組織化ニューラルネットワ
ークにおける出力ノードのラベル付け方法において、 上記特徴ベクトルをよく反映している出力ノードを選出
する際に、各出力ノードに付けられた上記順位の関数を
用いて特徴ベクトルを反映している度合いを表す得点を
夫々の出力ノードに付与し、この付与された得点の順位
に従って上記所定数の出力ノードを選出することを特徴
とする自己組織化ニューラルネットワークにおける出力
ノードのラベル付け方法。
(2) In the method for labeling output nodes in a self-organizing neural network according to claim 1, when selecting an output node that well reflects the feature vector, the rank assigned to each output node is A self-organizing neural system characterized by assigning a score representing the degree to which a feature vector is reflected to each output node using a function, and selecting the predetermined number of output nodes according to the ranking of the assigned score. How to label output nodes in a network.
(3)請求項1あるいは請求項2に記載の自己組織化ニ
ューラルネットワークにおける出力ノードのラベル付け
方法において、所定数の出力ノードに同一のラベルを付
ける際に、 まず、上記特徴ベクトルをよく反映している出力ノード
のうち上記特徴ベクトルを最もよく反映している出力ノ
ードにラベル付けを行い、 次に、既にラベル付けされた出力ノードからの出力値の
順位が大きいほうから上記所定順位以内の値となるよう
な特徴ベクトル以外の未反映特徴ベクトルを選出し、 上記未反映特徴ベクトルを最もよく反映している出力ノ
ードを各出力ノードに付けられた上記順位に基づいて選
出して上記ラベルを付ける処理を、ラベル付けされた出
力ノード数が上記所定数になるまで又は上記未反映特徴
ベクトルが無くなるまで繰り変えして実施することを特
徴とする自己組織化ニューラルネットワークにおける出
力ノードのラベル付け方法。
(3) In the method for labeling output nodes in a self-organizing neural network according to claim 1 or claim 2, when attaching the same label to a predetermined number of output nodes, first, the feature vector is well reflected. Output nodes that best reflect the above feature vector are labeled among the output nodes that are already labeled, and then the output values from the output nodes that have already been labeled are assigned a value within the above predetermined order starting from the one with the highest rank. Select unreflected feature vectors other than the feature vectors such that A method for labeling output nodes in a self-organizing neural network, characterized in that the process is repeated until the number of labeled output nodes reaches the predetermined number or until there are no unreflected feature vectors.
(4)請求項1乃至請求項3のいずれかに記載の自己組
織化ニューラルネットワークにおける出力ノードのラベ
ル付け方法において、 上記出力ノードに対する順位付けを実施するに際して、
上記特徴ベクトルを上記自己組織化ニューラルネットワ
ークに入力した際に、予め設定された閾値以上であって
かつ大きいほうから上記所定順位以内の値を出力してい
る出力ノードに順位付けを行なうことを特徴とする自己
組織化ニューラルネットワークにおける出力ノードのラ
ベル付け方法。
(4) In the method for labeling output nodes in a self-organizing neural network according to any one of claims 1 to 3, when ranking the output nodes,
When the feature vector is input to the self-organizing neural network, the output nodes outputting a value that is greater than or equal to a preset threshold and within the predetermined ranking from the larger value are ranked. A method for labeling output nodes in a self-organizing neural network.
JP2234951A 1990-09-04 1990-09-04 Labelling method for output node in self-organized neural network Pending JPH04114264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2234951A JPH04114264A (en) 1990-09-04 1990-09-04 Labelling method for output node in self-organized neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2234951A JPH04114264A (en) 1990-09-04 1990-09-04 Labelling method for output node in self-organized neural network

Publications (1)

Publication Number Publication Date
JPH04114264A true JPH04114264A (en) 1992-04-15

Family

ID=16978817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2234951A Pending JPH04114264A (en) 1990-09-04 1990-09-04 Labelling method for output node in self-organized neural network

Country Status (1)

Country Link
JP (1) JPH04114264A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program
US9826412B2 (en) 2013-10-24 2017-11-21 At&T Intellectual Property I, L.P. Facilitating adaptive key performance indicators in self-organizing networks

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826412B2 (en) 2013-10-24 2017-11-21 At&T Intellectual Property I, L.P. Facilitating adaptive key performance indicators in self-organizing networks
JP2016143094A (en) * 2015-01-29 2016-08-08 パナソニックIpマネジメント株式会社 Transfer learning device, transfer learning system, transfer learning method and program

Similar Documents

Publication Publication Date Title
CN110362723B (en) Topic feature representation method, device and storage medium
Haralick Decision making in context
Roy et al. A neural-network learning theory and a polynomial time RBF algorithm
CN111209738B (en) Multi-task named entity recognition method combining text classification
US6529916B2 (en) Multidimensional indexing structure for use with linear optimization queries
US8326792B2 (en) Adaptive dynamic personal modeling system and method
US20060179055A1 (en) Wine categorization system and method
Chanales et al. Adaptive repulsion of long-term memory representations is triggered by event similarity
Ganie et al. A picture fuzzy similarity measure based on direct operations and novel multi-attribute decision-making method
US6665680B2 (en) Database structure having tangible and intangible elements and management system therefore
CN108062369A (en) A kind of ubiquitous education resource polymerization of polymorphism and system for integrating situation
Ebrahimi et al. A modification of technique for order preference by similarity to ideal solution (TOPSIS) through fuzzy similarity method (a numerical example of the personnel selection)
CN106897388A (en) Predict the method and device of microblogging event temperature
JPH04114264A (en) Labelling method for output node in self-organized neural network
CN114155422A (en) Method, device, equipment and storage medium for realizing visual question answering
JPH0887508A (en) Information retrieving device
Lin Fuzzy similarity matching method for interior design drawing recommendation
Chuang et al. Automatic classification of block-shaped parts based on their 2D projections
JPH05314320A (en) Recognition result evaluating system using difference of recognition distance and candidate order
Voskoglou Fuzzy Linear Programming.
Jabbari et al. Ranking all units with non-radial models in DEA
US6735577B2 (en) Method and apparatus for automatic search for relevant picture data sets
WO2024034196A1 (en) Trained model selection method, trained model selection device, and trained model selection program
Thompson et al. A proposed structure for displayed information to minimize search time through a data base
WO2020184716A1 (en) Tag recommendation device, tag recommendation method and tag recommendation program