JPH01288926A - Knowldge learning mechanism for expert system - Google Patents

Knowldge learning mechanism for expert system

Info

Publication number
JPH01288926A
JPH01288926A JP63118901A JP11890188A JPH01288926A JP H01288926 A JPH01288926 A JP H01288926A JP 63118901 A JP63118901 A JP 63118901A JP 11890188 A JP11890188 A JP 11890188A JP H01288926 A JPH01288926 A JP H01288926A
Authority
JP
Japan
Prior art keywords
rule
inference
rules
confidence
confirmability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63118901A
Other languages
Japanese (ja)
Inventor
Naoyuki Takada
直幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP63118901A priority Critical patent/JPH01288926A/en
Publication of JPH01288926A publication Critical patent/JPH01288926A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To enhance the accuracy of the confirmability of a rule with learning by means of an upward correction and a downword correction by providing an inference table to store the inference goal, etc., of the rule selected with an inference mechanism, and a fact, and a confirmability operation updating means. CONSTITUTION:Measured data from measuring equipment 5 are inputted to an inference mechanism 2 of a system main part 1, and the data of a result inferred by the mechanism 2 are stored into an inference condition table 6. Further, the fact conforming to an object (m) measured by the equipment 5 is inputted to a table 6 from a fact input means 7 by the operation of a specialist, etc. A confirmability operation updating means 8 calculates the confirmability again for the respective rules based on the data read from the table 6, inputs the result into a knowledge base 3 and the confirmability and a weight obtained by calculating the original rule again are updated. In the process of the upward and downword corrections of the confirmability, an operator displays the data of the base 3 and the respective types of the messages on a terminal device 9.

Description

【発明の詳細な説明】 A、産業上の利用分野 この発明は、人工知能に係るエキスパートシステム(プ
ロダクションシステム)において記憶すべき知mについ
てのルールの確信度を学習によって順次的に高めていく
知識の学習機構に関する。
[Detailed Description of the Invention] A. Industrial Field of Application This invention provides knowledge that sequentially increases the certainty of rules regarding knowledge m to be memorized in an expert system (production system) related to artificial intelligence through learning. Concerning the learning mechanism of

B、従来技術 プロダクションシステムは、専門家が長年の経験から培
ってきた知識をコンピュータに移し替えて記憶させてお
くものであり、コンピュータにおいて、rif−the
n」形式でプログラミングされる。つまり、「もし、曲
間が日計であるならば、結論はOOであるだろう」とい
う専門家から得た知識を基にして、 げ ロロ then  00 をプログラムする。
B. Conventional technology Production systems transfer the knowledge that experts have cultivated through years of experience to a computer and store it in the computer.
n” format. In other words, based on the knowledge obtained from an expert that ``If the interval between songs is a daily schedule, the conclusion would be OO,'' programs ``GERORO THEN 00''.

この場合に、結論が100%正しいということはあり得
ず、結論には、ある曖昧さが含まれている。
In this case, the conclusion cannot be 100% correct and contains some ambiguity.

そこで、知識の曖昧さの度合いを表す確信度(Cert
ainty Factor : CF値)をプログラム
に導大している。すなわち、前提(Pγemise )
をPで表し、結論(Conclusion)をCで表し
、確信度をCFで表し、確信度CFのパラメータをcf
で表すことにすると、プログラムは、 if  P  theル Ccf=cF  ・・・・・
・・・・・・・・・・・・・■という形式で表される。
Therefore, the confidence level (Cert), which represents the degree of ambiguity of knowledge, is
ainty factor (CF value) is introduced into the program. That is, the premise (Pγemise)
is expressed as P, conclusion is expressed as C, confidence is expressed as CF, and the parameter of confidence CF is expressed as cf.
If we express it as
It is expressed in the format ・・・・・・・・・・・・■.

これが、知識についてのルールである。This is the rule about knowledge.

例えば、確信度CFの区間を[−1,0,+1.O]の
範囲に定めであるシステムにおいては、cf=+1.0
は「絶対肯定J  (100%正しい)を意味し、cf
−−1,0は「絶対否定」 (そのようなことは100
%あり得ない)を意味する。
For example, set the interval of confidence CF to [-1, 0, +1. In a system defined in the range of cf=+1.0
means “absolutely affirmative J (100% correct), cf
--1,0 is "absolute denial" (such a thing is 100%
% impossible).

C1発明が解決しようとする課題 しかし、現実問題として、いかに専門家であっても、c
f=+1.0. cf=−1,0と断定できるようなケ
ースはほとんどない。そして、その専門家自身が確信度
について絶対的な自信をもっていることもほとんどなく
、多分これくらいであろうといった具合に、その場限り
の雰囲気で表明しているのである。
Problems to be solved by the C1 invention However, as a practical matter, no matter how expert one is, C
f=+1.0. There are almost no cases in which it can be determined that cf=-1, 0. Moreover, the experts themselves rarely have absolute confidence in their degree of certainty, and they express it on an ad hoc basis, saying that it is probably this much.

また、同じ事象について?M数の専門家から知識を得る
のが普通であり、すべての専門家が同一の確信度を表明
することもほとんどなく、ある専門家がcf=+1.o
である表明しても、ほかの専門家は同一の事象について
cf=+0.8(多分、80%くらい正しい)とか+0
.7とかといった具合に異なる確信度を表明する場合が
ほとんどであり、各専門家から得られた複数の確信度を
基にして大体圧しいであろうと思われる1つの確信度を
設定している。このようにルールにインプントする確信
度自体がかなり曖昧な数値である。
Also, about the same event? It is common to obtain knowledge from M number of experts, and it is rare for all experts to express the same degree of confidence, such that one expert has cf=+1. o
Even if you state that, other experts will say cf = +0.8 (probably about 80% correct) or +0 for the same event.
.. In most cases, different degrees of confidence are expressed, such as 7, and one confidence level that is considered to be the most overwhelming is set based on multiple confidence levels obtained from each expert. In this way, the confidence level itself that influences the rules is a fairly ambiguous value.

さらに、同一の前提Pに対して結論Cが異なるケースも
多い。このようなルールの組をルールセットというが、
下記のように、それぞれのルールにおいて確信度CFが
異なるのが普通である。
Furthermore, there are many cases where the conclusion C is different for the same premise P. A set of rules like this is called a ruleset.
As shown below, each rule usually has a different confidence level CF.

(C,≠C,CF、≠CF、) このようなルールセットがある場合には、結論C5と結
論C2とを区別することができる条件CD1vjde)
D+ 、 Dzを用意して、PおよびDを前提として、
下記のようにルールを作成するのが望ましい。
(C, ≠C, CF, ≠CF,) If there is such a rule set, the condition CD1vjde that can distinguish between conclusion C5 and conclusion C2)
Prepare D+ and Dz, and assuming P and D,
It is preferable to create rules as shown below.

・・・・・・・・・・・・・・・■ (&は、アンド条件を表す) こうすることによって、一方のルールの確信度が高まり
、他方のルールの確信度が低くなり、信頼性の向上を期
待てきる。
・・・・・・・・・・・・・・・■ (& represents an AND condition) By doing this, the confidence level of one rule increases, the confidence level of the other rule decreases, and the confidence level increases. I'm looking forward to improving my sexuality.

しかしながら、区別のための条件り、、D2の存在を常
に期待することはできない。特に、計測機器と結合した
システムの場合にはむずかしい。
However, the existence of the condition for differentiation, D2, cannot always be expected. This is particularly difficult in the case of systems that are coupled with measuring instruments.

そのため、従来では、やむをえず、■の形式でルールを
作成し、それを最終的結論としてのルールとして確定し
てしまい(従来では確信度の精度アップの学習機能を有
していなかった)、ユーザーに提供している。
Therefore, in the past, it was unavoidable to create a rule in the form of is provided to.

しかし、前述のとおり、知識源である専門家に確信度C
Fの高い精度を要求することは事実上無理であるし、ル
ールの数が多いシステムにあっては、確信度CFの決定
のための基準をシステム全体にわたって維持することが
きわめて困難である。
However, as mentioned above, the certainty level C
It is practically impossible to require high accuracy of F, and in a system with a large number of rules, it is extremely difficult to maintain a standard for determining confidence factor CF throughout the system.

つまり、プロダクションシステムにおける推論のための
基礎となるプログラム(ルールの群)の確信度CFの数
値が非常に曖昧で信頼性が低いものとならざるを得す、
確信度CFの数値の微妙な大小関係が、ユーザーの利用
時に推論の流れを全く変えてしまい、誤った結論を導き
出してしまう事態が発生することが頻繁に生じていた。
In other words, the confidence level CF of the program (group of rules) that is the basis for inference in the production system must be extremely ambiguous and unreliable.
The subtle relationship between the values of the confidence factor CF completely changes the flow of inference when the user uses the system, often leading to incorrect conclusions being drawn.

この発明は、このような事情に鑑みてなされたものであ
って、ルールにおける確信度の精度を高めることにより
、推論の信頼性の向上を図ることを目的とする。
The present invention has been made in view of the above circumstances, and an object of the present invention is to improve the reliability of inference by increasing the precision of certainty in rules.

00課題を解決するための手段 この発明は、このような目的を達成するために、次のよ
うな構成をとる。
Means for Solving the Problems In order to achieve the above object, the present invention has the following configuration.

すなわち、この発明のエキスパートシステムにおける知
識の学習機構は、確信度と重みとを付加したif−th
en形式のルールを格納する知識ベースと、初期入力デ
ータに基づいて前記知識ベースから対応するルールを選
択する推論機構と、事実を入力する手段と、前記推論機
構によって選択されたルールの推論ゴール、確信度1重
みおよび辿ったルールのリストならびに前記事実入力手
段からの事実を格納する推論状況テーブルと、推論状況
テーブルに格納されたルールのうち事実と一致するルー
ルの確信度に上方修正を施しかつそれ以外のルールの確
信度に下方修正を施して前記知識ベースにおける元のル
ールの確信度および重みを更新する確信度演算更新手段
とを備えたことを特徴とするものである。
That is, the knowledge learning mechanism in the expert system of this invention is based on if-th
a knowledge base that stores en-format rules; an inference mechanism that selects corresponding rules from the knowledge base based on initial input data; means for inputting facts; and an inference goal of the rule selected by the inference mechanism; an inference status table that stores the certainty level 1 weight, a list of followed rules, and facts from the fact input means; and an upward adjustment to the confidence level of the rule that matches the fact among the rules stored in the inference status table; The present invention is characterized by comprising a certainty calculation updating means for updating the certainty and weight of the original rule in the knowledge base by downwardly modifying the certainty of other rules.

81作用 この発明の構成による作用は、次のとおりである。81 action The effects of the configuration of this invention are as follows.

推論状況テーブルに格納されたルールのうち事実と一致
するルールについてその確信度に上方修正を施し、それ
以外のルールについては確信度に下方修正を施すから、
最初に知識ベースに格納された専門家によるルールの確
信度が曖昧なものであっても、前記の上方修正および下
方修正による学習によってルールの確信度の精度が次第
に向上していくことになる。
Among the rules stored in the inference status table, the confidence level of the rules that match the facts is revised upward, and the confidence level of other rules is revised downward.
Even if the confidence level of the rule by the expert initially stored in the knowledge base is ambiguous, the accuracy of the confidence level of the rule will gradually improve through learning through the above-mentioned upward and downward corrections.

F、実施例 以下、この発明の実施例を図面に基づいて詳細に説明す
る。
F. Embodiments Hereinafter, embodiments of the present invention will be described in detail based on the drawings.

第1図はエキスパートシステムにおける知g&の学習機
構およびその周辺機器のブロック構成図である。
FIG. 1 is a block diagram of the knowledge learning mechanism and its peripheral equipment in the expert system.

第1図において、■はプロダクションシステム、の主部
であり、これは、推論機構2と、知識へ一ス3と、ワー
キングメモリ4とから構成されている。知識ベース3に
は、予め、専門家から得た知識に基づいて作成されたr
if−then4形弐のプログラム(ルール群)が次の
ように格納されている。
In FIG. 1, ``■'' is the main part of the production system, which is composed of an inference mechanism 2, a knowledge source 3, and a working memory 4. Knowledge base 3 includes r created in advance based on knowledge obtained from experts.
The program (rule group) for if-then4 type 2 is stored as follows.

if  PHthen  C(cf=cFHw=W;・
・・・・・・・・・・・・・・■ ここで、サフィクション”i”は状態の番号を表しくi
=1.2・・・・n)、P、はルール前提部、C8はル
ール結論部、CF、はそのルールに与えられた確信度、
W、は重みを表し、卯は重みW。
if PHthen C(cf=cFHw=W;・
・・・・・・・・・・・・・・・■ Here, suffix “i” represents the state number.
=1.2...n), P is the rule premise, C8 is the rule conclusion, CF is the confidence given to the rule,
W represents the weight, and the rabbit is the weight W.

のパラメータを表す。represents the parameter of

重みW、は、専門家が経験してきた例数に相当するもの
であり、重みW、の値が大きいほど、その専門家の知識
の信頼性が高いといえる。
The weight W corresponds to the number of cases that the expert has experienced, and it can be said that the larger the value of the weight W, the higher the reliability of the expert's knowledge.

■のルールの具体例を第2図に示したツリー構造につい
て示す。
A specific example of the rule (2) will be shown for the tree structure shown in FIG.

・・・・・・・・・・・・・・・・・・■ルールR1,
R2,R3のルール前提部は共通のP、であるが、ルー
ル結論部はそれぞれC1゜Ct、Czと異なっている。
・・・・・・・・・・・・・・・・・・■Rule R1,
The rule premise parts of R2 and R3 are the same P, but the rule conclusion parts are different, C1°Ct and Cz, respectively.

ルールR4,I’?5゜R6(7)/L、−ル前提部ハ
トモにルールR1のルール結論部CIで共通となってい
るが、ルール結論部はそれぞれC,、C,、C,である
。ルールR7゜R8のルール前提部はともにルールR2
のルール結論部C2で共通となっているが、ルール結論
部はそれぞれCt、CIである。ルールR9,F?10
のルール結論部はともにルールR3のルール結論部C1
で共通となっているが、ルール結論部はそれぞれCIl
、C1゜である、ルールR8,R9のルール結論部は共
通のC6となっている。
Rule R4, I'? 5°R6(7)/L, - The antecedent part is common to the rule conclusion part CI of rule R1, but the rule conclusion part is C, , C, , C, respectively. The rule antecedents of rules R7 and R8 are both rule R2.
The rule conclusion part C2 is common, but the rule conclusion parts are Ct and CI, respectively. Rule R9, F? 10
The rule conclusion part of both is the rule conclusion part C1 of rule R3.
are common, but the rule conclusion part is CIl
, C1°, the rule conclusion portions of rules R8 and R9 have a common C6.

第1図に戻って、システム主部1の推論機構2には、計
測機器5からの測定データが入力されるように構成され
、推論機構2で推論された結果のデータは、推論状況テ
ーブル6に格納されるように構成されている。また、計
測機器5で計測している対象物mと一致する事実が、モ
ニタデイスプレィ、キーボード等で構成された事実入力
手段7から専門家等の操作によって推輪状況テーブル6
に入力されるように構成されている。
Returning to FIG. 1, the inference mechanism 2 of the system main unit 1 is configured to receive measurement data from the measuring device 5, and the data resulting from inference by the inference mechanism 2 is stored in the inference status table 6. is configured to be stored in In addition, the facts that match the object m being measured by the measuring device 5 are entered into the wheel situation table 6 through the fact input means 7 composed of a monitor display, a keyboard, etc. through the operation of an expert or the like.
is configured to be input.

そして、確信度演算更新手段8は、推論状況テーブル6
から読み出したデータに基づいて各ルールについて確信
度を計算しなおし、その結果を知識ベース3に入力して
、元のルールについて、計算しなおされた確信度および
重みを更新するように構成されている。
Then, the certainty calculation updating means 8 updates the inference status table 6.
The controller is configured to recalculate the confidence for each rule based on the data read from the controller, input the result into the knowledge base 3, and update the recalculated confidence and weight for the original rule. There is.

9は、後述する確信度の上方修正、下方修正の過程でオ
ペレータが知識ベース3のデータや各種のメンセージを
表示したり、ユーザーがプロダクションシステムを利用
するときにシステム主部1とのデータのやりとりを行う
端末器である。
9 is the exchange of data with the system main unit 1 when the operator displays the data of the knowledge base 3 and various messages during the upward and downward revision of the confidence level, which will be described later, and when the user uses the production system. It is a terminal device that performs

次に、この実施例の動作を説明する。Next, the operation of this embodiment will be explained.

第3図は動作説明のために第2図のツリー構造を書き替
えたものである。第2図の最初のルール前提部P、を初
期入力データIとし、最終のルール結論部c、、c5.
c、、c、、c、、c、。を推論ゴールGl、C;z 
、Gz 、G4.Gs 、Ghとし、中間のルール結論
部ないしルール前提部C,,C,,C:lをノードN、
、N、、N、としである。
FIG. 3 is a rewritten version of the tree structure in FIG. 2 to explain the operation. The first rule premise part P in FIG. 2 is the initial input data I, and the final rule conclusion part c, , c5 .
c,,c,,c,,c,. The inference goal Gl,C;z
, Gz, G4. Let Gs, Gh be the intermediate rule conclusion part or rule premise part C,,C,,C:l as node N,
,N, ,N, is Toshi.

推論機構2は、計測機器5から対象物mについての測定
データを初期入力データIとして読み込み、この初期入
力データ+ (=Pl )をルール前提部としてもつル
ールR1,R2,R3t−知識ベース3から検索し、そ
れぞれを読み出してワーキングメモリ4に格納する。
The inference mechanism 2 reads the measurement data about the object m from the measuring device 5 as the initial input data I, and infers the rules R1, R2, R3t− from the knowledge base 3 having this initial input data + (=Pl) as the rule prerequisite. Search, read each one, and store it in the working memory 4.

次いで、推論機構2は、ワーキングメモリ4に格納され
ているルールR1,R2,R3のうちからまず1つのル
ール例えばルールR1を読み込み、このルールR1のル
ール結論部であるノードN。
Next, the inference mechanism 2 first reads one rule, for example, the rule R1, from among the rules R1, R2, and R3 stored in the working memory 4, and selects a node N, which is the rule conclusion part of this rule R1.

をルール前提部としてもつルールR4,R5,R6を知
識ベース3から検索し、それぞれを読み出してワーキン
グメモリ4に格納する。このルールR4,R5,R6の
ルール結論部は推論ゴールG、、G2.G、であって、
それの下位のルールは存在しないから、この技ではそれ
以上のルールの読み出しは行わない。
Rules R4, R5, and R6 having the rule antecedents are searched from the knowledge base 3, and each is read and stored in the working memory 4. The rule conclusions of the rules R4, R5, and R6 are the inference goals G, , G2 . G, and
Since there are no rules lower than that, this technique does not read any further rules.

以上の過程で、推論機構2は、その推論結果のデータを
推論状況テーブル6に登録する。この場合の推論状況テ
ーブル6の内容は、第4図のテーブル図の第1欄目ない
し第38目に記載のようになる。すなわち、試行識別子
#1において、〔推論ゴール、確信度7重み、辿ったル
ールのリスト] のフォーマントで、 (G、、CF、、W4.R1→R4) (Gz 、  CFs 、 Ws 、  R1→R5)
CG3 、CF6 、W、、R1+R6)が登録された
ことになる。
In the above process, the inference mechanism 2 registers the data of the inference result in the inference status table 6. The contents of the inference status table 6 in this case are as described in columns 1 to 38 of the table diagram in FIG. That is, in trial identifier #1, in the form [inference goal, confidence level 7 weight, list of followed rules], (G,,CF,,W4.R1→R4) (Gz, CFs, Ws, R1→ R5)
CG3, CF6, W, , R1+R6) are now registered.

次いで、推論機構2は、ワーキングメモリ4に格納され
ているルールR1,R2,R3のうちから次のルールR
2を読み込み、このルールR2のルール結論部であるノ
ードN2をルール前提部としてもつルールR7,R8を
知識ベース3から検索し、それぞれを読み出してワーキ
ングメモリ4に格納する。このルールR7,R8のルー
ル結論部は推論ゴールG、、G、であって、それの下位
のルールは存在しないから、この枝ではそれ以上のルー
ルの読み出しは行わない。
Next, the reasoning mechanism 2 selects the next rule R from among the rules R1, R2, and R3 stored in the working memory 4.
2 is read, rules R7 and R8 having node N2, which is the rule conclusion part of this rule R2, as a rule premise part are searched from the knowledge base 3, and each of them is read out and stored in the working memory 4. The rule conclusion part of the rules R7 and R8 is the inference goal G, , G, and since there are no lower rules, no further rules are read out in this branch.

以上の過程で、推論機構2は、その推論結果のデータを
推論状況テーブル6に登録する。この場合の推論状況テ
ーブル6の内容は、第4図のテーブル図の第41111
1目および第5欄目に記載のようになる。すなわち、試
行識別′子#1において、CG、、’CF、、W、、R
2→R7](G、、CF、、W、、R2−R8) が登録されたことになる。
In the above process, the inference mechanism 2 registers the data of the inference result in the inference status table 6. The contents of the inference status table 6 in this case are No. 41111 in the table diagram of FIG.
It will be as described in the 1st and 5th columns. That is, in trial identifier #1, CG, , CF, , W, , R
2→R7] (G,, CF,, W,, R2-R8) has been registered.

さらに、推論機構2は、ワーキングメモリ4に格納され
ているルールR1,R2,R3のウチカラ次のルールR
3を読み込み、このルールR3のルール結論部であるノ
ードN、をルール前提部としてもつルールR9,RIO
を知識ベース3から検索し、それぞれを読み出してワー
キングメモリ4に格納する。このルールR9,RIOの
ルール結論部は推論ゴールG3.G、であって、それの
下位のルールは存在しないから、この技ではそれ以上の
ルールの読み出しは行わない。
Furthermore, the inference mechanism 2 determines the next rule R of the rules R1, R2, and R3 stored in the working memory 4.
3 and has the node N, which is the rule conclusion part of this rule R3, as the rule premise part, R9, RIO.
are searched from the knowledge base 3, each read out and stored in the working memory 4. The rule conclusion part of this rule R9, RIO is the inference goal G3. G, and there are no rules below it, so this technique does not read out any more rules.

以上の過程で、推論機構2は、その推論結果のデータを
推論状況テーブル6に登録する。この場合の推論状況テ
ーブル6の内容は、第4図のテーブル図の第6aLlお
よび第7欄目に記載のようになる。すなわち、試行識別
子#lにおいて、CG9.CF、、W、、R3→R9) CG、、CF、。、W、、、R3→R10]が登録され
たことになる。
In the above process, the inference mechanism 2 registers the data of the inference result in the inference status table 6. The contents of the inference status table 6 in this case are as described in columns 6aLl and 7 of the table diagram in FIG. That is, in trial identifier #l, CG9. CF,,W,,R3→R9) CG,,CF,. , W, , R3→R10] has been registered.

一方、専門家は、適当な分析方法によって事実すなわち
測定対象物mが何であるかを調べ、得られた事実を事実
入力手段7を介して推論状況テーブル6に登録する。
On the other hand, the expert uses an appropriate analysis method to find out the facts, that is, what the measurement object m is, and registers the obtained facts in the inference status table 6 via the fact input means 7.

以上が前処理である。The above is the preprocessing.

次に、確信度演算更新手段8は、推論状況テーブル6お
よび知識ベース3との連係動作により、次のような確信
度の精度アンプのための学習動作を遂行する。
Next, the confidence calculation updating means 8 performs the following learning operation for the confidence accuracy amplification by cooperation with the inference status table 6 and the knowledge base 3.

この学習動作を第5図のフローチャートに基づいて説明
する。
This learning operation will be explained based on the flowchart of FIG.

ステップS1で事実入力手段7からの事実の入力の完了
を待ってステップS2に進み、推論状況テーブル6を検
索して推論状況テーブル6内に事実と一致する推論結果
が存在するかどうかを判断する。もし、存在しなければ
、ステップS3に進んで端末器9にルールが誤っている
舌あるいは例外事象の発生の旨を表示する。表示に代え
てプリントアウトしてもよい、その後はシーケンス動作
を終了する。オペレータは、ルールの修正等の対策を講
じる。
In step S1, the process waits for the input of facts from the fact input means 7 to be completed, and then proceeds to step S2, in which the inference situation table 6 is searched to determine whether or not there is an inference result that matches the fact in the inference situation table 6. . If it does not exist, the process proceeds to step S3 and displays on the terminal device 9 that the rule is incorrect or that an exceptional event has occurred. It may be printed out instead of being displayed, after which the sequence operation ends. The operator takes measures such as modifying the rules.

事実と一致する推論結果が存在する場合には、ステップ
S4に進み、事実と一致する推論結果を導いたルールを
推論状況テーブル6において検索し、そのルールの確信
度CFと重みWとを読み出す。
If there is an inference result that matches the fact, the process proceeds to step S4, where the rule that led to the inference result that matches the fact is searched for in the inference status table 6, and the certainty factor CF and weight W of that rule are read out.

次いで、ステップS5でそのルールの確信度CFについ
て上方修正を行うとともに、重みWをプラス1し、得ら
れた結果を知識ベース3に送出して、知識ベース3内の
元のルールにおける確信度CF、重みWに代えて新たに
計算された確信度Cr2重みWを更新する。
Next, in step S5, the confidence level CF of the rule is revised upward, the weight W is increased by 1, the obtained result is sent to the knowledge base 3, and the confidence level CF of the original rule in the knowledge base 3 is , the newly calculated reliability Cr2 weight W is updated instead of the weight W.

上方修正の確信度CFおよび重みWの更新は、次式によ
る。
The upward revision confidence factor CF and weight W are updated according to the following equation.

We1 We−We1  ・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・■ここ
で、右辺のCFおよびWは更新前の値であり、左辺のC
FおよびWは更新後の値である。右辺の分子でプラス1
するのは、確信度CFをアップするためであり、分母で
プラス1するのは経験した例数が1つ増えるからである
We1 We-We1 ・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・■Here, CF and W on the right side are the values before update, and C on the left side
F and W are updated values. Plus 1 in the numerator on the right side
The reason for this is to increase the confidence level CF, and the reason for adding 1 to the denominator is because the number of experienced cases increases by one.

第4図の例の場合、事実はG2であって推論状況テーブ
ル6内に推論ゴールG2が存在するから、これに該当す
るルールR5の確信度CF、と重みW、とか、 W、+1 W、←W、+1 となる。
In the case of the example in FIG. 4, the fact is G2 and the inference goal G2 exists in the inference status table 6, so the confidence CF of the rule R5 corresponding to this and the weight W, etc., W, +1 W, ←W, +1.

例えば、更新前のCF sが0.7、更新前のW5が1
.000であったとすると、更新後では、i、ooo+
t =0.7003 となり、確信度CF sがアップする。
For example, CF s before update is 0.7, W5 before update is 1
.. If it is 000, after the update, i, ooo+
t =0.7003, and the confidence level CF s increases.

ステップS6では、ルール前提部が同じルールがほかに
存在するかどうかを推論状況テーブル6を検索すること
によって判断し、存在する場合にはステップS7に進む
。ステップS7では、そのルールの確信度CFと重みW
とを読み出す。
In step S6, it is determined by searching the inference status table 6 whether another rule with the same rule prerequisite exists, and if so, the process advances to step S7. In step S7, the certainty factor CF and the weight W of the rule are
Read out.

次いで、ステップS8でそのルールの確信度CFについ
て下方修正を行うとともに、重みWをプラス1し、得ら
れた結果を知識ベース3に送出して、知識ベース3内の
元のルールにおける確信度CF、重みWに代えて新たに
計算された確信度Cr2重みWを更新する。
Next, in step S8, the confidence CF of the rule is revised downward, the weight W is increased by 1, the obtained result is sent to the knowledge base 3, and the confidence CF of the original rule in the knowledge base 3 is , the newly calculated reliability Cr2 weight W is updated instead of the weight W.

下方修正の確信度CFおよび重みWの更新は、次式によ
る。
The downward revision confidence factor CF and weight W are updated according to the following equation.

We1 W−We1  ・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・■右辺の
分子でマイナス1するのは、確信度CFをダウンするた
めであり、分母でプラス1するのは経験した例数が1つ
増えるからである。
We1 W-We1 ・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・■ The numerator on the right side is subtracted by 1 to lower the confidence level CF, and the denominator is subtracted by 1 from experience. This is because the number of cases that occurred increases by one.

第4図の例の場合、推論ゴールG2のルール前提部はN
、であり、これをルール前提部とするルール[≧4が存
在するから、ルールR4の確信度CF4と重みW4とが
、 W4→I W4←W4+1 となる。
In the example shown in Figure 4, the rule antecedent of the inference goal G2 is N
, and since there is a rule [≧4 with this as the rule premise, the certainty factor CF4 and weight W4 of rule R4 are as follows: W4→I W4←W4+1.

例えば、更新前のCF、が0.9、更新前のW4が1,
000であったとすると、更新後では、]、000(−
1 =0.898 となり、確信度CF、がダウンする。
For example, CF before update is 0.9, W4 before update is 1,
000, after update, ], 000(-
1 = 0.898, and the confidence level CF decreases.

ステップS8からステップS6にリターンし、ルール前
提部が同じルールがほかに存在するかどうかを判断し、
存在する場合にはステップS7→S8を繰り返す。
Returning from step S8 to step S6, it is determined whether there is another rule with the same rule prerequisite part,
If it exists, steps S7→S8 are repeated.

第4図の例の場合、ルール前提部N、をルール前提部と
するさらに別のルールR6が存在するから、ルールR6
の確信度CF bが下方修正されダウンする。
In the example of FIG. 4, there is another rule R6 whose rule premise part is the rule premise part N, so rule R6
The confidence level CF b is revised downward and goes down.

以上のように、共通のルール前提部N、を有するルール
セント(R4,R5,R6)において、上方修正するの
はただ1つのルールについてのみであり、下方修正する
のは残りのすべてのルールについてである。
As described above, in the rule cents (R4, R5, R6) that have a common rule premise N, only one rule is revised upward, and all the remaining rules are revised downward. It is.

ルール前提部が同じルールがほかに存在しなくなったと
きには、ステップS9に進み、Illll−ルに至った
推論過程において初期入力データIまでのすべての推論
過程について上方修正、下方修正が終了したかどうかを
判断する。終了していない場合には、ステップS4にリ
ターンし、以下同様の動作を繰り返す。
When there is no other rule with the same rule premise, the process advances to step S9, and it is determined whether upward and downward revisions have been completed for all inference processes up to the initial input data I in the inference process that led to Illll- rule. to judge. If the process has not been completed, the process returns to step S4, and the same operations are repeated.

第4図の例の場合には、ルールR1が残っているので、
推論状況テーブル6からルールR1の確信度CF、と重
みWlとを読み出し、以下、ステップS5で上方修正を
行う。また、ステップS6からステップS7.S8によ
って、ルール前提部■を同じくするルールR2,R3に
ついて下方修正を施す。
In the case of the example in Figure 4, rule R1 remains, so
The confidence factor CF and the weight Wl of the rule R1 are read from the inference status table 6, and are subsequently revised upward in step S5. Further, from step S6 to step S7. In S8, rules R2 and R3 having the same rule premise part (2) are revised downward.

この共通のルール前提部■を有するルールセント(R1
,R2,R3)においても、上方修正するのはただ1つ
のルールについてのみであり、下方修正するのは残りの
すべてのルールについてである。
Rule cent (R1
, R2, R3), only one rule is revised upward, and all the remaining rules are revised downward.

以上が、1つの測定対象物mについての確信度CFの学
習動作であるが、対象物mを代えて、同様の動作を何回
も繰り返すと、各ルールにおける確信度CFが次第に適
正な値に収斂していき、知識として信頼性の高いものと
なる。
The above is the learning operation for the confidence factor CF for one measurement object m, but if you change the object m and repeat the same operation many times, the confidence factor CF for each rule will gradually reach an appropriate value. As the information converges, it becomes highly reliable as knowledge.

G1発明の効果 この発明によれば、次の効果が発揮される。Effect of G1 invention According to this invention, the following effects are exhibited.

すなわち、tit論機構によって選択されたルールの推
論ゴール、確信度2重みおよび辿ったルールのリストな
らびに事実入力手段からの事実を格納する推論状況テー
ブルと、推論状況テーブルに格納されたルールのうち事
実と一致するルールの確信度に上方修正を施しかつそれ
以外のルールの確信度に下方修正を施して前記知識ベー
スにおける元のルールの確信度および重みを更新する確
信度演算更新手段とを備えることにより、事実と一致す
るルールについてその確信度に上方修正を施し、それ以
外のルールについては確信度に下方修正を施すから、専
門家から得た知識に基づいて最初に知識ベースに格納さ
れたルールの確信度が曖昧なものであっても、前記の上
方修正および下方修正による学習によってルールの確信
度の精度を次第に向上させていくことができ、lli論
の信頼性を高いものにすることができる。
That is, there is an inference status table that stores the inference goal, certainty factor 2 weight, and list of followed rules of the rule selected by the tit theory mechanism, as well as facts from the fact input means, and facts among the rules stored in the inference status table. and a confidence calculation updating means for updating the confidence and weight of the original rule in the knowledge base by upwardly revising the confidence of the rule that matches the rule and downwardly revising the confidence of the other rules. As a result, the confidence level of rules that match the facts is revised upward, and the confidence level of other rules is revised downward, so the rules that were initially stored in the knowledge base based on the knowledge obtained from experts Even if the confidence level of the rule is ambiguous, the accuracy of the confidence level of the rule can be gradually improved through learning through the above-mentioned upward and downward revisions, and the reliability of the LLI theory can be made high. can.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図ないし第5図はこの発明の実施例に係り、第1図
はエキスパートシステムにおける知識の学習機構および
その周辺機器のプロンク構成図、第2図はルール群のツ
リー構造図、第3回は動作説明のために第2図を書き替
えたツリー構造図、第4図は推論状況テーブルにおける
テーブル図、第5図は上方修正、下方修正の動作説明に
供するフローチャートである。 1・・・システム主部 2・・・推論機構 3・・・知識ベース 4・・・ワーキングメモリ 5・・・計測機器 6・・・推論状況テーブル 7・・・事実入力手段 8・・・確信度演算更新手段 9・・・端末器 R・・・ルール CF・・・確信度 W・・・重み ■・・・初期入力データ N・・・ノード G・・・推論ゴール
Figures 1 to 5 relate to embodiments of the present invention; Figure 1 is a block diagram of the knowledge learning mechanism in an expert system and its peripheral equipment; Figure 2 is a tree structure diagram of a group of rules; 2 is a tree structure diagram rewritten from FIG. 2 to explain the operation, FIG. 4 is a table diagram of the inference status table, and FIG. 5 is a flowchart for explaining the operation of upward correction and downward correction. 1...System main part 2...Inference mechanism 3...Knowledge base 4...Working memory 5...Measuring device 6...Inference status table 7...Fact input means 8...Confidence Degree calculation updating means 9...Terminal R...Rule CF...Confidence W...Weight ■...Initial input data N...Node G...Inference goal

Claims (1)

【特許請求の範囲】[Claims] (1)確信度と重みとを付加したif−then形式の
ルールを格納する知識ベースと、初期入力データに基づ
いて前記知識ベースから対応するルールを選択する推論
機構と、事実を入力する手段と、前記推論機構によって
選択されたルールの推論ゴール、確信度、重みおよび辿
ったルールのリストならびに前記事実入力手段からの事
実を格納する推論状況テーブルと、推論状況テーブルに
格納されたルールのうち事実と一致するルールの確信度
に上方修正を施しかつそれ以外のルールの確信度に下方
修正を施して前記知識ベースにおける元のルールの確信
度および重みを更新する確信度演算更新手段とを備えた
ことを特徴とするエキスパートシステムにおける知識の
学習機構。
(1) A knowledge base that stores if-then format rules with added confidence and weights, an inference mechanism that selects a corresponding rule from the knowledge base based on initial input data, and means for inputting facts. , an inference situation table that stores inference goals, confidence levels, weights, and a list of followed rules of the rules selected by the inference mechanism, as well as facts from the fact input means; and facts among the rules stored in the inference situation table. and a confidence calculation updating means for updating the confidence and weight of the original rule in the knowledge base by making an upward adjustment to the certainty of a rule that matches the rule and making a downward correction to the certainty of other rules. A knowledge learning mechanism in an expert system characterized by:
JP63118901A 1988-05-16 1988-05-16 Knowldge learning mechanism for expert system Pending JPH01288926A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63118901A JPH01288926A (en) 1988-05-16 1988-05-16 Knowldge learning mechanism for expert system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63118901A JPH01288926A (en) 1988-05-16 1988-05-16 Knowldge learning mechanism for expert system

Publications (1)

Publication Number Publication Date
JPH01288926A true JPH01288926A (en) 1989-11-21

Family

ID=14747973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63118901A Pending JPH01288926A (en) 1988-05-16 1988-05-16 Knowldge learning mechanism for expert system

Country Status (1)

Country Link
JP (1) JPH01288926A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991017501A1 (en) * 1990-04-27 1991-11-14 Kabushiki Kaisha Komatsu Seisakusho Method of adjusting automatically rule base of expert system using neural network and device thereof
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2009515277A (en) * 2005-11-09 2009-04-09 テジック・コミュニケーションズ Learning device for resource constrained devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991017501A1 (en) * 1990-04-27 1991-11-14 Kabushiki Kaisha Komatsu Seisakusho Method of adjusting automatically rule base of expert system using neural network and device thereof
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2009515277A (en) * 2005-11-09 2009-04-09 テジック・コミュニケーションズ Learning device for resource constrained devices
US8504606B2 (en) 2005-11-09 2013-08-06 Tegic Communications Learner for resource constrained devices

Similar Documents

Publication Publication Date Title
US5265222A (en) Symbolization apparatus and process control system and control support system using the same apparatus
Wang Stable adaptive fuzzy controllers with application to inverted pendulum tracking
US5899985A (en) Inference method and inference system
JPH01288926A (en) Knowldge learning mechanism for expert system
Ullah et al. A Novel Technique of Software Cost Estimation Using Flower Pollination Algorithm
KR950004454B1 (en) Apparatus for inference operation
JPWO2020059099A1 (en) Label correction device
Wold Unbiased predictors
EP3985564A1 (en) Method for prediction of relations in a knowledge graph representing an industrial system used to monitor and control the industrial system
JP2003332187A (en) Maintenance method and system for manufacturing semiconductor
JP2643295B2 (en) Fuzzy control arithmetic unit and fuzzy inference method
JPH01134630A (en) Inference system
JPH07160662A (en) Method for calculating reliability in predicted result of neural network
JP3211236B2 (en) Automatic knowledge corrector for approximate inference
WO2023095236A1 (en) Device maintenance assistance device and maintenance assistance method
JPH047639A (en) Inferring device
JPH0493721A (en) Equipment-fault diagnostic apparatus
EP0515209B1 (en) Method and apparatus for regulating membership functions and fuzzy inference system
JP2684972B2 (en) Production schedule creation method and apparatus
JP2786785B2 (en) Plant data processing equipment
CN114399056A (en) Data processing method, device, equipment and medium
JPH0554014A (en) Learning device for neural network
JP2000322263A (en) Method for rationalizing constitution of fuzzy inference model
CN111667104A (en) Bayesian transfer learning method under sudden water pollution environment
JPH042921A (en) Process diagnostic method