JPH11296496A - パターン認識装置 - Google Patents

パターン認識装置

Info

Publication number
JPH11296496A
JPH11296496A JP10097160A JP9716098A JPH11296496A JP H11296496 A JPH11296496 A JP H11296496A JP 10097160 A JP10097160 A JP 10097160A JP 9716098 A JP9716098 A JP 9716098A JP H11296496 A JPH11296496 A JP H11296496A
Authority
JP
Japan
Prior art keywords
neural network
group
learning
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10097160A
Other languages
English (en)
Inventor
Yoshiharu Hayashi
喜治 林
Koji Oga
幸治 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10097160A priority Critical patent/JPH11296496A/ja
Publication of JPH11296496A publication Critical patent/JPH11296496A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】ニューラルネットの二段構成から成るパターン
認識装置において、処理時間を高速化する。 【解決手段】識別する対象をあらかじめグループに分類
しておき、第1ニューラルネット処理部23でグループ
を識別し、次いで、第2ニューラルネット処理部25
が、第2学習結果データベース26から識別したグルー
プに対応する学習結果を取り込み、最終的な識別結果を
判定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
を用いて画像情報、測定信号の信号処理結果等のパター
ンを高精度で認識する装置に関する。
【0002】
【従来の技術】図形や文字の認識、または、信号の変化
傾向を基にした機器状態の認識等のパターン認識処理に
ニューラルネットが広く利用されている。ニューラルネ
ットとは、動物の脳における神経回路網をモデル化する
ことにより、非線形的かつ並列処理的な情報処理を実現
したシステムである。
【0003】ニューラルネットの特徴としては教師付き
学習の容易さが挙げられる。教師付き学習とは、入力デ
ータX1〜Xnに対して理想出力となるデータY1〜Yn
既知である場合、ニューラルネットワークの入出力写像
Fを、以下に示す誤差関数Eが最小となるように決定す
る処理である。
【0004】
【数1】
【0005】この時、理想となる入出力データを教師デ
ータという。学習が容易であることは、パターン認識装
置の実用性の面で大きな利点を持つ。例えば、測定信号
のパターン認識により機器状態の認識、すなわち、機器
の異常診断を行う場合、機器の経年変化等により入力・
出力パターンの関係が変化し、認識の精度が低下する場
合がある。このような時は、経年変化後の入出力関係を
与える教師データを用いて、ニューラルネットを再度学
習することで、経年変化後に対応するニューラルネット
を容易に構築することができる。また、新たに、教師信
号を得た場合にも、学習によってニューラルネットを容
易に構築しなおすことができる。以上に示す点から、ニ
ューラルネットがパターン認識に多く使用されている。
【0006】ニューラルネットを用いたパターン認識装
置において、認識の精度を向上させる方法もいくつか考
案されている。例えば、文字認識装置(特開平3−16488
6 号公報)に記載の方法がある。この方法では、まず、
あらかじめ類似する文字パターンをまとめて複数のグル
ープを設定しておく。認識処理としては、文字パターン
候補がどのグループに属するかを判定するためのニュー
ラルネットと、各グループごとにグループに属する文字
パターンの中から候補を絞り込むためのニューラルネッ
トを用意し、これら全てのニューラルネットについて同
じ入力パターンを設定し、認識処理を実施する。
【0007】次いで、各グループの文字候補の中から、
グループの判定結果に対応するものを選び出すことで、
最終的な認識結果を得る。この方法により、文字種類が
多く、多くの類似したパターンを有する文字群について
も、ニューラルネットはグループに属する文字パターン
のみを学習すればよいため学習が容易になり、高い認識
率を得ることができる。
【0008】
【発明が解決しようとする課題】しかし、この方法では
認識処理に要する時間の面で問題があった。すなわち、
この方法では、グループを選択するための少なくとも一
つのニューラルネットと、各グループごとにグループの
中から候補を絞り込むための複数のニューラルネット全
てについて演算処理を実行することが必要になり、認識
処理に時間を要していた。
【0009】パターン認識処理の高速性が要求される状
況としては、機器の異常診断に適用する場合が挙げられ
る。機器の異常診断を精度良く実施するには、オンライ
ンでの処理、すなわち、逐次取り込まれる信号値を実時
間で、かつ、時間的に連続に絶え間なく処理することが
必要である。実時間で解析できなければ、異常の検知が
遅れ、また、時間的に連続に処理しなければ、突発的な
変化を伴う異常を見逃す危険性があるからである。
【0010】このような点から、いくら高い認識率を有
するパターン認識装置であっても、認識処理に時間がか
かり、オンラインでの処理が実現できなければ、機器の
異常診断に適用することは困難である。このため、高速
に認識処理が実施でき、かつ、高い認識率を得ることの
できるパターン認識装置が求められていた。
【0011】
【課題を解決するための手段】上記の課題を解決するた
めに、本発明によるパターン認識装置では、ニューラル
ネットの学習結果である重み係数を格納するためのデー
タベースを設け、グループを選択するためのニューラル
ネットについての重み係数(1)、また、各グループご
とに、グループに属する候補の中から一つの結果に絞り
込むためのニューラルネットについての重み係数(2)
を格納しておく。このとき、(2)の重み係数は、グル
ープごとに設けた識別コードに対応させて格納する。認
識処理の際には、まず、データベースから(1)の重み
係数を取り出し、ニューラルネットに設定し、認識処理
を行うことでグループを判定する。次いで、データベー
スから、判定したグループの識別コードに対応して
(2)の重み係数を取り出し、ニューラルネットに設定
し、認識処理を行うことで最終的な認識結果を得る。
【0012】この処理によれば、グループごとに設けた
ニューラルネット全てを起動することはなく、ニューラ
ルネットに係る演算処理を大幅に低減できるため、高い
認識率を維持したまま、認識処理の高速化を実現でき
る。
【0013】
【発明の実施の形態】以下、本発明の一実施の形態を図
面を参照して説明する。
【0014】図1は、本発明の第1実施形態に係るパタ
ーン認識装置である。本実施形態では、プラントの計測
信号から求めたアトラクタをパターン認識することによ
り、プラントの異常検知診断を行う。図1において、1
が診断の対象とするプラントである。2が本発明による
パターン認識装置である。3はパターン認識装置2の認
識結果をユーザに表示し、また、パターンの学習の際に
は、運転員が必要な情報を入力する入出力装置である。
【0015】次に、パターン認識装置2について説明す
る。21はプラントからプラント信号を取り込み、アト
ラクタを求める信号処理部である。本実施例では信号処
理部21で行う信号処理の結果は図形データとなる。2
2は信号処理部21の出力である図形データを取り込
み、図形の特性を示す数値データに変換する図形処理部
である。23は図形処理部22の出力である数値データ
を入力パターンとして、ニューラルネットを用いて発生
事象が属するグループを識別する第1ニューラルネット
処理部である。
【0016】25は第1ニューラルネット処理部23の
識別結果を踏まえ、発生事象を識別する第2ニューラル
ネット処理部である。24,26はそれぞれ第1ニュー
ラルネット処理部23,第2ニューラルネット処理部2
4での識別処理に使用するニューラルネットの学習結果
を格納した第1学習結果データベース,第2学習結果デ
ータベースである。27は第1ニューラルネット処理部
24での識別結果を踏まえ、発生事象を決定する発生事
象決定部である。
【0017】28は各事象ごとに割り当てた事象コード
を格納した事象コードデータベースである。29は発生
事象決定部27で決定した発生事象について、出力装置
3への表示を制御する入出力制御部である。30は第1
学習結果データベース24に格納するための学習結果を
求める第1ニューラルネット学習部である。31は第2
学習結果データベース26に格納するための学習結果を
求める第2ニューラルネット学習部である。32はプラ
ント1で計測した信号のトレンドについて過去の履歴を
格納するプラントデータ格納部である。
【0018】装置の処理の流れについて説明する。信号
処理部21はプラント1で計測したプラント信号を取り
込み、信号処理を実施する。本実施形態ではカオス解析
に基づいた信号処理手法であるアトラクタの再構成(カ
オスセミナー、海文堂出版)を行う。アトラクタ再構成
の処理を図2に示した。(a)はプラントで計測した信
号のトレンドを示している。このトレンドに対し、あら
かじめ設定した遅れ時間τの間隔で取り出した二つの信
号値をそれぞれX座標,Y座標とし、(b)に示したよ
うに軌跡を描くことでアトラクタを得る。この時、軌跡
を描いた空間を位相空間と呼ぶ。通常、計算機でアトラ
クタ再構成の処理を実施する場合には、プラント信号の
トレンドは時系列に並んだ離散データとなるため、得ら
れるアトラクタについても点を先で結んだ形式の図形と
なる。図3にアトラクタ再構成による処理結果の例を示
す。
【0019】あらかじめ正常時のアトラクタを求めてお
けば、これと測定信号から求めたアトラクタを比較する
ことによりプラントの異常検知が行える。二つのアトラ
クタの形状が異なる場合、正常状態から逸脱しているこ
とを意味するからである。また、正常時に加え、各異常
事象発生時のアトラクタがあらかじめ分かっていれば、
測定信号から求めたアトラクタが、どの状態におけるア
トラクタに類似しているかを認識することにより、すな
わちパターン認識により異常事象の同定を実施できる。
【0020】信号処理部21ではプラント1で計測した
信号を取り込み、上記のアトラクタ再構成による信号処
理を実施する。信号処理部21の出力例を図4に示す。
出力データは、アトラクタの図形を構成する点の座標を
並べたものとなる。つまり、この座標で示される点を順
に位相空間にプロットし、線で結べば、図3に示すよう
なアトラクタを得ることができる。
【0021】次に図形処理部22に係る処理について説
明する。信号処理部21で求めたアトラクタは、図形処
理部22に取り込まれる。図形処理部22では、アトラ
クタの形状に係る情報を数値データに変換する。形状と
いう抽象的な情報を数値データに変換する方法について
説明する。まず、アトラクタが描かれている空間、すな
わち、位相空間を格子状に分割する。これを図5に模式
的に示した。図5の例では、位相空間を16個の格子に
分割している。
【0022】次に、各格子に含まれるアトラクタの点数
を求める。信号処理部21から取り込むデータは、図4
に示したような座標の並びである。図形処理部22で
は、これらの座標それぞれについて、どの格子に含まれ
るかを判定する。
【0023】例えば、信号処理部から取り込んだデータ
が図4に示す例の場合、まず、先頭に記述されている座
標情報(X1,Y1)について判定を実施する。この時、
1<X1<a2、かつ、b1<Y1<b2を満たせば、座標
(X1,Y1)は格子501にあると判定される。以下、
2行目以降に記述されている座標データ(X2,Y2)、
(X3,Y3)…についても同様の判定処理を実施し、ぞ
れぞれの座標データがどの格子に含まれるかを求めてい
く。
【0024】このような処理によって、位相空間を分割
した格子それぞれに含まれるアトラクタの点数をカウン
トする。最後に各格子の点数を全点数で規格化し、アト
ラクタ形状の数値データを得る。すなわち、アトラクタ
形状の数値データは、図5(b)に示すように、0から
1の間を取る値の並びとなる。図5の例では、位相空間
を16に分割しているので、値が16個並んだものが得
られる。
【0025】本実施例になる装置では、アトラクタ形状
の数値データに対してニューラルネットによるパターン
認識からプラントの異常検知診断を実施する。まず、ニ
ューラルネットについて簡単に説明する。ニューラルネ
ットは模式的に図6(a)のように表される。図に示し
たのは階層型ニューラルネットである。61,62,6
3はそれぞれ入力層,中間層,出力層、64はユニット
と呼ばれる。ニューラルネットは、入力層のユニットか
ら中間層のユニットへ、中間層のユニットから出力層の
ユニットへとデータを渡しながら処理を実施する。各ユ
ニットでの処理を図6(b)に模式的に示した。65は
ユニットの入力データ、66はユニットの出力データを
表す。ユニットでは、以下に示す式に基づき処理が行わ
れる。
【0026】
【数2】
【0027】Xi は入力データの値、nは入力データの
個数、Yは出力データの値を表す。また、Wi は重み係
数、fは変換関数を示す。つまり、他のユニットから取
り込んだ入力データに重み係数を乗じたものを足し合わ
せ、変換関数fを施すことによって出力データYを得
る。入力層61の各ユニットへの入力データとして、図
1の図形処理部22で求めたアトラクタ形状の数値デー
タを設定すれば、上記のような処理が各ユニットで行わ
れ、最終的に出力層のユニットにおける値が認識結果と
なる。
【0028】ニューラルネットは、入力データと出力デ
ータのパターンを与えれば、これらの関係を与える重み
係数を自動的に求めてくれる。これを学習と呼ぶ。ま
た、学習に使用する入力データと出力データのパターン
を教師データと呼ぶ。つまり、あらかじめ教師データを
用いて学習を行い、その時の学習結果、すなわち、重み
係数についてのデータを用意しておけば、未知の入力デ
ータに対するパターン認識処理が実施できる。
【0029】以上に示したニューラルネットの学習処理
を本実施例になる装置で実施する場合の処理について説
明する。学習処理は、図1の第1ニューラルネット学習
部30、及び第2ニューラルネット学習部31の二つが
実施する。第1ニューラルネット学習部30はグループ
を識別するための学習、第2ニューラルネット学習部3
1は事象を識別するための学習を行う。まず、グループ
の定義について説明する。図7に各異常事象におけるポ
ンプ軸振動データから求めたアトラクタの例を示す。
【0030】図に示すように、アトラクタの形状は幾つ
かの類似するパターンに分類できる。本実施例になる装
置では、類似したアトラクタを与える事象を一つのグル
ープとして定義する。例えば、図7に示す例では、
(a)回転体アンバランスと(b)カップリング偏角は、
類似したアトラクタ形状を与えるので、これらの事象を
まとめてグループ1としている。
【0031】同様に、(c)羽根車損傷と(d)シャフ
ト亀裂はグループ2、(e)キャビテーションと(f)
回転体摺動はグループ3としている。図に示す例のよう
に、あらかじめ各異常事象ごとのアトラクタを求め、ユ
ーザが類似する形状を与える事象を一つのグループとし
て定義する他に、各事象の発生時における物理機構から
グループ化を実施することもできる。
【0032】例えば、(c)羽根車損傷と(d)シャフ
ト亀裂は、いずれも軸中央部における質量分布の非対称
性により強制振動が発生し、軸の回転に合わせて振れが
大きくなる現象である(亀裂部分は軸の中央に設定)。
つまり、軸中央部の振動が正弦波に近くなるため、環状
のアトラクタが得られる。これに対し、(a)回転体ア
ンバランスと(b)カップリング偏角は軸の端部での異
常である(アンバランスは軸の端部に設定)。この時、
軸中央部での振動は不安定になるため、円を塗りつぶし
たようなアトラクタが得られる。このように、あらかじ
めアトラクタを求めることができない場合でも、それぞ
れの異常事象ごとの物理機構からグループ化を実施する
こともできる。
【0033】各グループにはグループコードが割り当て
られる。グループコードとは、グループを識別するため
のコードであり、0または1で表される。また、これと
は別に各事象についても一つずつコードを割り当てる。
これを事象コードと呼ぶ。図7に示したポンプ軸振動か
ら求めたアトラクタの場合、グループの設定は図8に示
すようになる。この例では、5つの“0”,“1”の組
み合わせで事象コードを構成し、4つの“0”,“1”
の組み合わせでグループコードを構成している。
【0034】運転員が図1の入出力装置3を通して学習
処理の実行を命令すると、信号処理部21,図形処理部
22,第1ニューラルネット学習部30,第2ニューラ
ルネット学習部31が学習処理を開始する。信号処理部
21は、過去のプラント信号のトレンドを履歴として格
納したプラントデータ格納部32から信号のトレンドを
取り出し、アトラクタ再構成の処理を実施する。処理結
果は、入出力装置3に表示される。
【0035】図9に、この時の入出力装置3の画面例を
示す。901に信号処理部21の処理結果であるアトラ
クタを表示している。また、これに併せて902には処
理に使用したプラント信号の計測時刻を表示している。
この時刻は、プラントデータ格納部32の中に、プラン
ト信号のデータに対してタイムスタンプを付ける形で格
納している。
【0036】運転員は画面に表示されるアトラクタの形
状、及び、プラント信号の計測時刻を見ながら、表示さ
れているデータがどの事象に対応するものかを判断し、
画面の903に示すメニューから発生事象として一つの
項目を選択する。この時、パターン認識装置2は、この
アトラクタと運転員が入力した事象とを対応づけるため
の学習処理を実施する。以下、この学習処理について説
明する。
【0037】運転員が図9に示す画面を通して事象を選
択すると、この情報は入出力制御部29に送られる。入
出力制御部29は、コードデータベース28から、選択
された事象に対応するグループコードと事象コードを取
得する。図10にコードデータベースの構成を示す。コ
ードデータベースには、各事象について事象コードとグ
ループコードが定義されている。図9に示した画面例で
は、カップリング偏角が指定されている。この場合、入
出力制御部29はコードデータベース28からカップリ
ング偏角に対する事象コードとして「00001」、ま
た、グループコードとして「0001」で表されるコー
ドを取り込む。入出力制御部29は、第1ニューラルネ
ット学習部30にグループコードを、第2ニューラルネ
ット学習部31にグループコードと事象コードを出力す
る。
【0038】第1ニューラルネット学習部30では、入
出力制御部29からグループコードを取り込み、グルー
プを識別するためのニューラルネットの学習を実施す
る。以下、第1ニューラルネット学習部30の処理につ
いて説明する。第1ニューラルネット学習部30の構成
を図11に示す。入出力制御部29からは前記のグルー
プコード、図形処理部からは入出力装置3に表示したア
トラクタに対する処理結果、すなわちアトラクタ形状を
数値化したデータを取り込む。
【0039】教師データ作成部111は、入力としてア
トラクタ形状の数値データ、出力としてグループコード
を設定した教師データを作成する。ただし、この時、今
までの学習に使用した教師データと併せて学習処理を実
施する。過去の教師データは教師データ格納部112に
格納されている。
【0040】図12に教師データ格納部112の構成を
示す。教師データ格納部には、これまでの学習で使用し
た教師データについて、入力データと出力データの対の
形で格納している。ここで入力データはアトラクタ形状
の数値データ,出力データがグループコードに対応して
いる。ただし、本来、グループコードは0または1で表
される二値化データであるが、学習する場合には0を
0.0として、1を1.0として扱うため、教師データ格
納部では、この形式でデータを格納している。
【0041】教師データ作成部111は、過去の学習処
理で使用した教師データに、図形処理部22と入出力制
御部29から取り込んだアトラクタ形状の数値データと
グループコードを加えたものを新たな教師データとして
作成し、重み係数演算部113に出力する。重み係数演算
部113は、教師データ作成部111から取り込んだ教
師データを基にニューラルネットの学習を実施する。図
13に学習処理の概要を示した。
【0042】図の131は入力となる教師データ、すな
わち、アトラクタ形状の数値データである。これに対し
132は出力となる教師データ、すなわち、グループコ
ードである。前記したようにグループコードは0を0.
0として、1を1.0として出力層のユニットに設定す
る。重み係数演算部113は、ニューラルネットの入出
力関係、すなわち、アトラクタ形状の数値データとグル
ープコードとの関係を学習する。
【0043】次いで、学習結果出力部114が学習結
果、つまり、ニューラルネットの重み係数についてのデ
ータを第1学習結果データベースに格納する。図14は
第1学習結果データベースの構成を示している。このデ
ータベースには、アトラクタ形状の数値データからグル
ープコードを識別するためのニューラルネットの重み係
数を格納している。
【0044】次に第2ニューラルネット学習部31につ
いて説明する。第1ニューラルネット学習部30が入出
力制御部29からグループコードを取り込んだのに対
し、第2ニューラルネット学習部31は、グループコー
ドと事象コードの両方を取り込み、学習処理を実施す
る。第2ニューラルネット学習部の構成を図15に示し
た。以下、これらの処理について説明する。教師データ
作成部151は、第1ニューラルネット学習部30の場
合と同様に、教師データ格納部112から過去の教師デ
ータを取り込み、これに新たに図形処理部22と入出力
制御部29から取り込んだデータを加えたものを教師デ
ータとして作成する。
【0045】図15に教師データ格納部112の構成を
示す。第1ニューラルネット処理部の教師データ格納部
と異なり、教師データがグループコードごとに分類され
て格納されている。教師データ作成部151は、教師デ
ータ格納部152から、入出力制御部29から取り込ん
だグループコードに対応する教師データを取り込む。こ
の教師データに、図形処理部22から取り込んだアトラ
クタ形状の数値データを入力に、入出力制御部29から
取り込んだ事象コードを出力に設定して作成した教師デ
ータを加え、新たな教師データを作成する。これを重み
係数演算部153に出力し、第1ニューラルネット学習部
30と同様にニューラルネットの学習処理を実施する。
【0046】次いで、学習結果出力部114が第2学習
結果データベース26に重み係数を出力する。図17に
第2学習結果データベースの構成を示す。第2学習結果
データベースは、第1学習結果データベースと異なり、
グループコードごとに重み係数を格納している。学習結
果出力部は入出力制御部29から取り込んだグループコ
ードに対応する欄に重み係数を格納する。
【0047】続いて、本実施例になる装置における認識
処理について説明する。認識処理は図1の第1ニューラ
ルネット処理部23、及び、第2ニューラルネット処理
部25で実施する。まず、第1ニューラルネット処理部
23の処理について説明する。
【0048】第1ニューラルネット処理部23の構成を
図18に示す。数値データ取り込み部181は、図形処
理部22からアトラクタ形状の数値データを取り込み、
ニューラルネット演算部182に出力する。また、学習
データ取り込み部183は第1学習結果データベースか
ら学習結果である重み係数を取り込み、ニューラルネッ
ト演算部182に出力する。ニューラルネット演算部1
82では、取り込んだ重み係数をニューラルネットに設
定し、また、アトラクタ形状の数値データをニューラル
ネットの入力層に設定することで認識処理を実施する。
【0049】この処理の概要を図19に示した。191
がアトラクタ形状の数値データ、192が認識結果であ
る。この時、ニューラルネットにはアトラクタ形状の数
値データとグループコードとの対応関係を学習した重み
係数が設定されているので、出力はグループコードにな
る。ただし、ニューラルネットの出力は0または1では
なく、0と1の間の連続的な値となる。
【0050】このため、二値化処理部184ではニュー
ラルネット演算部182から認識結果を取り込み、しき
い値判定、つまり、例えば0.8以上の場合を1に、0.
2以下の場合を0にすることにより出力データを0また
は1に二値化することで、グループコードを取得する。
グループコードは第2ニューラルネット処理部25に出
力される。また、数値データ取り込み部181が取り込
んだアトラクタ形状の数値データについても第2ニュー
ラルネット処理部25に出力される。
【0051】次に、図1の第2ニューラルネット処理部
25について説明する。第2ニューラルネット処理部2
5の構成を図20に示した。数値データ取り込み部20
1は、第1ニューラルネット処理部23から送られたア
トラクタ形状の数値データを取り込む。また、グループ
コード取り込み部は第1ニューラルネット処理部で識別
したグループコードを取り込み、学習データ取り込み部
203へ出力する。学習データ取り込み部203は図1
7に示した第2学習結果データベース26から、このグ
ループコードに対応する重み係数を取り込み、ニューラ
ルネット演算部204のニューラルネットに設定する。
【0052】次いで、ニューラルネット演算部204は
数値データ取り込み部201から送られた数値データを
入力としてニューラルネットによる認識処理を実施す
る。設定した学習結果は、アトラクタ形状の数値データ
と事象コードとの関係を学習した時の重み係数である。
したがって、ニューラルネット演算部204で実施した
ニューラルネットによる認識結果に対し、二値化処理部
205が二値化データに変換することで、事象コードを
取得することができる。
【0053】第2学習結果データベース26に格納した
学習結果は、グループごとに学習した時の重み係数であ
る。つまり、このような処理をすることで、第1ニュー
ラルネット処理部で識別したグループについて、このグ
ループに属する事象のみを学習した時の重み係数で認識
処理を実施できる。第2ニューラルネット処理部25
は、認識した事象コードを発生事象決定部27に出力す
る。
【0054】発生事象決定部27では、第2ニューラル
ネット処理部25が出力した事象コードを取り込み、発
生事象を決定する。この処理では、図10に示したコー
ドデータベース28に格納した事象コードと事象名称と
の対応関係を基に、取り込んだ事象コードに対応する事
象名称を取得する。発生事象決定部27は事象名称を入
出力制御部29に出力する。
【0055】次に入出力制御部29は、発生事象決定部
27から取り込んだ事象名称について、出力装置3に表
示する。プラントの運転員は出力装置3に表示された認
識結果を確認することにより、現在のプラントの状態を
把握することができる。
【0056】以上のように、本実施例によれば、あらか
じめパターンを類似するグループに分類し、各グループ
毎にパターンを判定するニューラルネットと、最も確信
度の高いパターン候補が含まれるグループを選択するニ
ューラルネットとから成るパターン認識装置において、
それぞれのニューラルネットによる認識処理で必要とな
る重み係数をデータベースに格納しておき、まず、グル
ープを選択するニューラルネットが、該データベースか
らグループを識別するための重み係数を取り込んで、グ
ループの識別を実施し、次に、事象を識別するニューラ
ルネットが、重み係数を格納したデータベースの中か
ら、識別したグループに対応する重み係数を取り込ん
で、事象の識別を実施する。
【0057】このような装置構成及び処理にすれば、グ
ループの中から最終的にパターンを絞り込むニューラル
ネット、すなわち、事象を識別するニューラルネットを
全て起動する必要はなく、グループを識別するニューラ
ルネット一つと、事象を識別するニューラルネット一つ
の計二つのみを起動すればよく、認識処理を大幅に低減
できる。したがって、高い認識率を有しながら、なおか
つ、高速な認識処理を実現できる。これにより、プラン
トで計測した信号をパターン認識し、オンラインでの異
常検知診断処理、すなわち、信号を絶え間なく連続に解
析し、かつ、実時間での認識処理を実施する装置が実現
できる。
【0058】次に、本発明の第二実施例について図面を
参照して説明する。本実施例による装置の構成を図21
に示す。第一の実施例と異なる点は、図1の信号処理部
21が第1信号処理部91と第2信号処理部92、ま
た、図形処理部22が第1図形処理部93と第2図形処
理部94の二つの処理部になることである。さらに、第
1ニューラルネット処理部23,第2ニューラルネット
処理部25については、第一の実施例と入出力先が異な
る。また、本実施例になる装置では、ニューラルネット
の学習処理を実施するための第1ニューラルネット学習
部30,第2ニューラルネット学習部31,プラントデ
ータ格納部32は省略した。
【0059】第一の実施例になる装置では、第1ニュー
ラルネット処理部と第2ニューラルネット処理部が認識
に使用する入力パターンは同一のデータである。これに
対して、本実施例になる装置では、第1ニューラルネッ
ト処理部と第2ニューラルネット処理部が認識に使用す
る入力パターンは異なる。ただし、第1ニューラルネッ
ト処理部23は事象が属するグループを識別し、第2ニ
ューラルネット処理部25がグループの中から事象を識
別する点は同じである。
【0060】以下、本実施例になる装置の処理について
説明する。第1信号処理部91,第1図形処理部93の
処理については、第一実施例になる装置の信号処理部2
1,図形処理部22と同様である。すなわち、プラント
で計測した信号を取り込み、信号処理によって求めたア
トラクタの形状について数値データに変換する処理を実
施する。
【0061】第1ニューラルネット処理部の構成を図2
2に示す。第1実施例と異なる点としては、第2ニュー
ラルネット処理部へ出力するデータの種類である。第1
実施例では、グループコードとアトラクタ形状の数値デ
ータを出力したが、本実施例になる装置ではグループコ
ードのみを出力する。
【0062】次に、第2信号処理部92について説明す
る。第一実施例になる装置では、一つの信号処理による
結果を用いて認識処理を実施していたが、本実施例にな
る装置では、異なる二種類の信号処理による結果を使用
する。第2信号処理部92はリサージュ解析を実施す
る。リサージュ解析とは、回転体の垂直方向振動と水平
方向振動を測定し、両測定値を縦軸と横軸にとって得た
図形により回転体の診断を行う方法である(「回転機械
診断の進め方」、日本プラントメンテナンス協会)。ま
た、リサージュ解析によって得た図形をリサージュ図形
という。リサージュ図形はアトラクタと類似した形状を
示す。第2信号処理部92ではプラントで計測した信号
を取り込み、リサージュ図形を取得する。
【0063】次に、第2図形処理部94は、第2信号処
理部92が上記処理により得たリサージュ図形を取り込
み、図形の特性を表す数値データに変換する。変換方法
については、アトラクタ形状の数値データへの変換方法
と同様に、リサージュ図形を描写する空間をメッシュに
分割し、各メッシュの点数を基に行う。
【0064】次に、第2ニューラルネット処理部25で
の処理を説明する。図23に第2ニューラルネット処理
部の構成を示した。数値データ取り込み部231が第2
図形処理部から、リサージュ図形の数値データを取り込
む以外は、第1実施例と同様の処理を実施する。また、
学習データ取り込み部が取り込む学習結果は、教師信号
として、入力にリサージュ図形に対する数値データ、出
力に事象コードを設定し、学習した時の重み係数であ
る。
【0065】このデータは第2学習結果データベースに
格納しており、グループごとに学習結果が分類されてい
る点は第1の実施例と同様である。すなわち、学習デー
タ取り込み部は、第1ニューラルネット処理部が認識し
たグループコードに対応する学習結果を第2学習結果デ
ータベースから取り込み、ニューラルネット演算部のニ
ューラルネットに設定する。
【0066】本実施例になる装置によれば、異なる二つ
の信号処理を実施し、一つの信号処理結果を基に、ニュ
ーラルネットでグループを識別し、さらに、一方の信号
処理結果を基に、識別したグループの中から事象を絞り
込む。これによって、一つの現象を特性の異なる複数の
信号処理で解析し、それらの結果を統合してパターン認
識を行うことができる。したがって、現象を多面的に捉
えることができ、パターン認識による異常検知診断の精
度を向上させることができる。
【0067】次に、本発明の第三実施例について図面を
参照して説明する。本実施例による装置の構成を図24
に示す。第1の実施例と異なる点は、図1の第1ニュー
ラルネット処理部23と第2ニューラルネット処理部2
5が一つのニューラルネット処理部241に統合されて
いる点、また、同様に、第1学習結果データベース24
と第2学習結果データベース26が一つの学習結果デー
タベース242に統合されている点である。以下、相違
点のみを説明する。
【0068】学習結果データベース242の構成を図2
5に示す。学習結果データベース242には、第1の実
施例になる装置におけるグループ識別用と事象識別用の
両方の学習結果を格納する。
【0069】図26はニューラルネット処理部241の
構成を示している。第1の実施例と異なる点は、学習デ
ータ取り込み部263が二値化処理部264の結果につ
いても取り込んでいることである。
【0070】ニューラルネット処理部の処理の流れにつ
いて説明する。まず、図26に示す数値データ取り込み
部261は図形処理部22からアトラクタ形状の数値デ
ータを取り込み、ニューラルネット演算部に出力する。
次に、学習データ取り込み部263は学習結果データベ
ース242からグループ識別用学習データを取得し、ニ
ューラルネット演算部241に出力する。ニューラルネ
ット演算部では、ニューラルネットの入力層にアトラク
タ形状の数値データを設定し、また、重み係数にグルー
プ識別用学習データを設定した後、認識処理を実施す
る。認識結果は二値化処理部264に取り込まれる。二
値化処理部264では、取り込んだ認識結果に対して二
値化処理を実施し、コードに変換する。ニューラルネッ
トの重み係数にはグループ識別用学習データが設定され
ているので、この時のコードはグループコードとなる。
【0071】次に、学習データ取り込み部263が、こ
のグループコードを取得する。学習データ取り込み部2
63では、学習結果データベースに格納した事象識別用
学習データから、グループコードに対応した学習データ
を取得する。図25に示したように、学習結果データベ
ース242にある事象識別用学習データはグループコー
ドごとに分類されて格納されている。取り込んだ学習デ
ータはニューラルネット演算部262に出力される。
【0072】次に、ニューラルネット演算部262は、
取り込んだ学習データをニューラルネットの重み係数と
して設定し、認識処理を行う。認識結果は二値化処理部
264に取り込まれ、認識結果に対して、しきい値判定に
よる二値化処理を実施し、コードに変換される。ここで
取得したコードは、ニューラルネットの重み係数に事象
識別用学習データが設定されているので、事象コードと
なる。二値化処理部264は事象コードを発生事象決定
部23に出力する。
【0073】本実施例になる装置によれば、学習結果デ
ータベースの中に、グループを識別する場合に使用する
重み係数と、事象を識別する場合に使用する重み係数と
を格納しておく。さらに、事象を識別する場合に使用す
る重み係数については、グループコードと対応させて格
納する。また、装置の中でただ一つ設置したニューラル
ネット処理部は、まず、学習結果データベースからグル
ープを識別する場合に使用する重み係数を取り込み、グ
ループの識別を実施する。次に、学習結果データベース
から、グループの識別結果であるグループコードに対応
する重み係数を取り込み、事象の識別を実施する。
【0074】これによって、ただ一つのニューラルネッ
ト処理部と、グループ及び事象の識別を実施するための
重み係数を格納した学習結果データベースを設置すれ
ば、高い認識率を有し、かつ高速に処理できるパターン
認識装置が実現できる。この方法の場合、第1の実施例
のように二つのニューラルネット処理部を設置する必要
はなく、装置の構成が簡単になる。したがって、安価な
パターン認識装置を実現できる。
【0075】次に、本発明の第四実施例について図面を
参照して説明する。本実施例による装置の構成は図24
に示した第三実施例と同様であるが、図24の学習結果
データベース242の構成と、ニューラルネット処理部
241の処理内容が第三実施例と異なる。以下、相違点
についてのみ説明する。
【0076】第三の実施例になる装置では、ニューラル
ネットによる認識処理を二段構成とし、一段目でグルー
プの識別、二段目で事象の識別を実施していた。これに
対し、本実施例になる装置では、ニューラルネットによ
る認識処理を二段以上を有する階層的な構成とする。
【0077】図27に、本実施例になる装置でのグルー
プの設定方法について示した。グループの構成は、階層
的な木構造から成っている。つまり、第1グループに属
するグループには、第2グループに属する複数のグルー
プが割り当てられ、その下には第3グループに属する複
数のグループが割り当てられる。最後に各事象が割り当
てられる。つまり、各事象は、その上位に位置する第1
グループ,第2グループ等の各グループの中で、ただ一
つのグループに属することになる。
【0078】図28は学習結果データベース242の構
成を示している。第三の実施例になる装置では、学習結
果データベース242に格納する学習データはグループ
識別用学習データと事象識別用学習データの二種類のみ
であるが、本実施例になる装置では、グループ識別用学
習データについて、第1グループ識別用,第2グループ
識別用、…、と学習データを用意する。第1グループ識
別用学習データとは、アトラクタ形状の数値データを基
に、第1グループにおけるグループコードを認識するた
めのものである。つまり、事象が図27の271〜27
3のいずれに属するかを判定するものである。
【0079】第2グループ識別用学習データとは、第1
グループに対する識別結果を受けて、事象が第2グルー
プのいずれに属するかを判定するためのものである。例
えば、第1グループに対する識別の結果、事象が図27
の271に属することが分かった場合、次に、事象が2
74〜276のいずれに属するかを判定する。このよう
な処理を繰り返すことにより、最終的に事象を絞り込む
ことができる。
【0080】図29はニューラルネット処理部における
処理の流れを示している。本実施例でのニューラルネッ
ト処理部の構成は、第3実施例と同じであるので、図2
6を参照しながら、処理の流れについて説明する。ま
ず、第3実施例と同様に、数値データ取り込み部261
が図形処理部22からアトラクタ形状の数値データを取
り込み、ニューラルネット演算部262に出力する(S
1)。次に、学習データ取り込み部263が、学習結果
データベース242から第1グループ識別用学習データ
を取り込む。
【0081】図28に示したように、第1グループ識別
用学習データについては1種類であるので、このデータ
を取り込み、ニューラルネット演算部262に出力する
(S2)。ニューラルネット演算部262では、数値デ
ータ取り込み部261から取り込んだアトラクタ形状の
数値データをニューラルネットの入力層に、学習データ
取り込み部263から取り込んだ学習データを重み係数
に設定し、ニューラルネットによる認識処理を実施する
(S3)。
【0082】次に、二値化処理部264は、ニューラル
ネット演算部262での認識結果を取り込み、しきい値
判定により、これを二値化することでコードに変換する
(S4)。二値化処理部264は、事象コードが得られ
るまで、取得したコードを学習データ取り込み部263
に出力する(S6)。
【0083】学習データ取り込み部263では、学習結
果データベース242から、取得したコードに対応する
学習データを取り込む。ただし、前回の処理で第1グル
ープ識別用学習データを取り込んだ場合には、第2グル
ープ識別用学習データを取り込み、次の処理では第3グ
ループ識別用学習データと順に取り込んでいき、最後に
事象識別用学習データを取り込む。
【0084】取り込んだ学習データは、ニューラルネッ
ト演算部262に出力する(S7)。以下、同様の処理
を行っていき、最後に事象コードが得られた時点で、二
値化処理部264は事象コードを発生事象決定部23に
出力する(S8)。
【0085】本実施例になる装置によれば、学習結果デ
ータベースの中に、第1グループ,第2グループ等の各
グループを識別する場合に使用する重み係数と、事象を
識別する場合に使用する重み係数とを格納しておく。ニ
ューラルネット処理部は、まず、学習結果データベース
から第1グループ識別用の重み係数を取り込んで、第1
グループのコードを求める。
【0086】次に、学習結果データベースから、求めた
グループコードに対応する第2グループ識別用の重み係
数を取り込んで、第2グループのコードを求める。この
ような処理を繰り返し、最後に事象識別用の重み係数を
取り込んで、事象のコードを求める。
【0087】これによって、グループを階層的に構成し
た場合でも、ただ一つのニューラルネット処理部と、グ
ループ及び事象の識別を実施するための重み係数を格納
した学習結果データベースを設置すれば、高い認識率を
有し、かつ高速に処理できるパターン認識装置が実現で
きる。グループを階層的に構成すれば、一つのニューラ
ルネットが学習するパターンの種類数を減らすことがで
き、学習が容易になる。したがって、より高い認識率を
得ることができる。
【0088】
【発明の効果】以上説明したように、本発明によれば、
認識するパターンを類似するグループに分類し、各グル
ープ毎にパターンを識別するニューラルネットと、下位
グループより一段大きく分類されたグループ毎にパター
ンが含まれる下位グループを識別するニューラルネット
の結果を基に、最終的にパターンを判定するパターン認
識装置において、あらかじめ、認識処理に必要な重み係
数をグループごとにまとめて格納しておき、グループの
識別結果に応じて重み係数を取り出し、認識処理を実施
する。このような処理にすることで、高い認識率を維持
したまま、処理を高速化できる。
【0089】これによって、オンラインで機器の異常診
断を行う時など、パターン認識処理の高速化が求められ
るような場合でも、高い認識率で処理が実施できる。
【0090】本発明によって、プラントの状態を精度良
く求められることによるプラントの安全性、及び信頼性
の向上という効果が期待できる。
【図面の簡単な説明】
【図1】本発明の第一の実施例になる装置の構成図であ
る。
【図2】アトラクタ再構成の処理を示す図である。
【図3】(a)及び(b)はアトラクタの例を示す図で
ある。
【図4】信号処理部の出力例を示す図である。
【図5】図形処理部の処理内容を示す図である。
【図6】(a)及び(b)はニューラルネットの構成を
示す図である。
【図7】(a)及び(b)はポンプ軸振動から求めたア
トラクタの例を示す図である。
【図8】事象コードとグループコードの設定の例を示す
図である。
【図9】学習時の表示装置の画面例を示す図である。
【図10】コードデータベースの構成を示す図である。
【図11】第1ニューラルネット学習部の構成を示す図
である。
【図12】教師データ格納部の構成を示す図である。
【図13】ニューラルネットへの教師データの設定を示
す図である。
【図14】第1学習結果データベースの構成を示す図で
ある。
【図15】第2ニューラルネット学習部の構成を示す図
である。
【図16】教師データ格納部の構成を示す図である。
【図17】第2学習結果データベースの構成を示す図で
ある。
【図18】第1ニューラルネット処理部の構成を示す図
である。
【図19】ニューラルネットの構成を示す図である。
【図20】第2ニューラルネット処理部の構成を示す図
である。
【図21】第2実施例になる装置の構成を示す図であ
る。
【図22】第1ニューラルネット処理部の構成を示す図
である。
【図23】第2ニューラルネット処理部の構成を示す図
である。
【図24】第3実施例になる装置の構成を示す図であ
る。
【図25】学習結果データベースの構成を示す図であ
る。
【図26】ニューラルネット処理の構成を示す図であ
る。
【図27】グループの階層化を示す図である。
【図28】学習結果データベースの構成を示す図であ
る。
【図29】ニューラルネット処理部の処理の流れを示す
図である。
【符号の説明】
1…プラント、2…パターン認識装置、3…入出力装
置、21…信号処理部、22…図形処理部、23…第1
ニューラルネット処理部、24…第1学習結果データベ
ース、25…第2ニューラルネット処理部、26…第2
学習結果データベース、27…発生事象決定部、28…
コードデータベース、29…入出力制御部、30…第1
ニューラルネット学習部、31…第2ニューラルネット
学習部、32…プラントデータ格納部。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】ニューラルネットによりパターン認識を実
    施するパターン認識装置において、識別する対象を複数
    のグループに分類し、入力となるパターンとグループと
    の関係をニューラルネットにより学習した学習結果、及
    び該グループごとに、入力となるパターンと該グループ
    に属する対象との関係をニューラルネットにより学習し
    た学習結果をあらかじめ用意し、まず入力となるパター
    ンとグループとの関係をニューラルネットにより学習し
    た学習結果を取り出し、ニューラルネットに設定するこ
    とでグループの識別を実施し、次に識別したグループに
    対応する入力となるパターンと対象との関係をニューラ
    ルネットにより学習した学習結果を取り出し、ニューラ
    ルネットに設定することで対象の識別を実施することを
    特徴とするパターン認識装置。
  2. 【請求項2】ニューラルネットによりパターン認識を実
    施するパターン認識装置において、識別する対象を複数
    のグループに分類し、入力となるパターンとグループと
    の関係をニューラルネットにより学習した学習結果、及
    び該グループごとに、入力となるパターンと該グループ
    に属する対象との関係をニューラルネットにより学習し
    た学習結果を装備する手段と、入力となるパターンとグ
    ループとの関係をニューラルネットにより学習した学習
    結果を取り出す手段と、該手段により取り出した学習結
    果をニューラルネットに設定することでグループの識別
    を実施する手段と、識別したグループに対応する入力と
    なるパターンと対象との関係をニューラルネットにより
    学習した学習結果を取り出す手段と、該手段により取り
    出した学習結果をニューラルネットに設定することで対
    象の識別を実施する手段を有することを特徴とするパタ
    ーン認識装置。
  3. 【請求項3】請求項1又は2記載のパターン認識装置に
    おいて、グループを識別するためのニューラルネットの
    入力となるパターンと、グループから対象を識別するた
    めのニューラルネットの入力となるパターンとは異なる
    ことを特徴とするパターン認識装置。
JP10097160A 1998-04-09 1998-04-09 パターン認識装置 Pending JPH11296496A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10097160A JPH11296496A (ja) 1998-04-09 1998-04-09 パターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10097160A JPH11296496A (ja) 1998-04-09 1998-04-09 パターン認識装置

Publications (1)

Publication Number Publication Date
JPH11296496A true JPH11296496A (ja) 1999-10-29

Family

ID=14184829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10097160A Pending JPH11296496A (ja) 1998-04-09 1998-04-09 パターン認識装置

Country Status (1)

Country Link
JP (1) JPH11296496A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100468371B1 (ko) * 2001-07-02 2005-02-02 주식회사 잉카인터넷 정보 검색을 위하여 신경 회로망을 이용하는 색인어 추출 및 저장 방법
KR101067376B1 (ko) 2009-04-29 2011-09-23 서울대학교산학협력단 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치
JP2013250809A (ja) * 2012-05-31 2013-12-12 Casio Comput Co Ltd 多クラス識別器、方法、およびプログラム
JP2019105871A (ja) * 2017-12-08 2019-06-27 富士通株式会社 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP2019159770A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 判別システム、判別装置、学習装置、判別方法及びプログラム
CN110522464A (zh) * 2018-05-25 2019-12-03 佳能医疗***株式会社 医用信号处理装置以及模型学习装置
WO2021250754A1 (ja) * 2020-06-08 2021-12-16 日本電信電話株式会社 学習装置、学習方法及びプログラム
JP7045531B1 (ja) * 2021-05-28 2022-03-31 三菱電機株式会社 プラント運転支援システム、プラント運転支援方法、およびプラント運転支援プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100468371B1 (ko) * 2001-07-02 2005-02-02 주식회사 잉카인터넷 정보 검색을 위하여 신경 회로망을 이용하는 색인어 추출 및 저장 방법
KR101067376B1 (ko) 2009-04-29 2011-09-23 서울대학교산학협력단 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치
JP2013250809A (ja) * 2012-05-31 2013-12-12 Casio Comput Co Ltd 多クラス識別器、方法、およびプログラム
JP2019105871A (ja) * 2017-12-08 2019-06-27 富士通株式会社 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP2019159770A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 判別システム、判別装置、学習装置、判別方法及びプログラム
WO2019176720A1 (ja) * 2018-03-13 2019-09-19 オムロン株式会社 判別システム、判別装置、学習装置、判別方法及びプログラム
CN110522464A (zh) * 2018-05-25 2019-12-03 佳能医疗***株式会社 医用信号处理装置以及模型学习装置
CN110522464B (zh) * 2018-05-25 2023-11-03 佳能医疗***株式会社 医用信号处理装置以及模型学习装置
WO2021250754A1 (ja) * 2020-06-08 2021-12-16 日本電信電話株式会社 学習装置、学習方法及びプログラム
JP7045531B1 (ja) * 2021-05-28 2022-03-31 三菱電機株式会社 プラント運転支援システム、プラント運転支援方法、およびプラント運転支援プログラム
WO2022249475A1 (ja) * 2021-05-28 2022-12-01 三菱電機株式会社 プラント運転支援システム、プラント運転支援方法、およびプラント運転支援プログラム

Similar Documents

Publication Publication Date Title
JP6243080B1 (ja) プリプロセッサおよび異常予兆診断システム
CN103471841B (zh) 一种旋转机械振动故障诊断方法
JP5045770B2 (ja) プロセス解析システム
CN112181758B (zh) 一种基于网络拓扑及实时告警的故障根因定位方法
CN114723285B (zh) 一种电网设备安全性评估预测方法
CN106777622A (zh) 基于人工智能的机电设备在线故障诊断的方法及***
CN110119787A (zh) 一种旋转型机械设备工况检测方法及设备
CN110082136A (zh) 基于云遗传算法优化支持向量机的旋转机械故障诊断方法
CN108760305A (zh) 一种轴承故障检测方法、装置及设备
CN115776401B (zh) 基于少样本学习对网络攻击事件进行溯源的方法、装置
JPH11296496A (ja) パターン認識装置
JPH0793018A (ja) 動作状態の診断方法及びシステム
KR102024829B1 (ko) Cart 기반의 입력변수 랭킹을 이용한 산업공정의 고장변수 식별을 위한 장치 및 방법
CN112162543B (zh) 一种基于数字孪生的叶片转子试验台预测性维修方法及***
CN113868948A (zh) 一种面向用户的动态阈值模型训练***及方法
JP2020098373A (ja) 異常検出装置、異常検出プログラム、及び、異常検出方法
CN110320802B (zh) 基于数据可视化的复杂***信号时序识别方法
CN117058451A (zh) 基于二维卷积神经网络的结构加速度数据异常检测方法
CN110411724B (zh) 一种旋转机械故障诊断方法、装置、***及可读存储介质
JP2023106472A (ja) 異常検知装置及び異常検知方法
CN113033845B (zh) 一种电力传输资源共建共享的建设方法及装置
KR102348387B1 (ko) 회전체 건전성 평가 시스템 및 방법
JP2011138374A (ja) 診断装置および診断方法
Jiang et al. Multi Sensor Gesture Recognition System Based on MCU
CN116740819B (zh) 基于ai算法的施工现场中施工异常行为的识别方法及装置