JP6950504B2 - 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 - Google Patents

異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 Download PDF

Info

Publication number
JP6950504B2
JP6950504B2 JP2017236217A JP2017236217A JP6950504B2 JP 6950504 B2 JP6950504 B2 JP 6950504B2 JP 2017236217 A JP2017236217 A JP 2017236217A JP 2017236217 A JP2017236217 A JP 2017236217A JP 6950504 B2 JP6950504 B2 JP 6950504B2
Authority
JP
Japan
Prior art keywords
betti
series
radius
candidate extraction
numbers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236217A
Other languages
English (en)
Other versions
JP2019105871A (ja
Inventor
小林 健
健 小林
裕平 梅田
裕平 梅田
賢 等々力
賢 等々力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017236217A priority Critical patent/JP6950504B2/ja
Priority to US16/207,350 priority patent/US20190180194A1/en
Publication of JP2019105871A publication Critical patent/JP2019105871A/ja
Application granted granted Critical
Publication of JP6950504B2 publication Critical patent/JP6950504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0418Architecture, e.g. interconnection topology using chaos or fractal principles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置に関する。
時系列データを解析してデータの異常に対応した変化を検知する技術として、時系列データから生成された有限個のアトラクタである疑似アトラクタにパーシステントホモロジ変換を実行してベッチ数を算出し、ベッチ数を用いたベッチ系列によって解析する手法が知られている。
特開2017−97643号公報 特開2009−192312号公報 特開2004−78981号公報
ところで、上記技術の利用手法として、異常であることがわかっている既知の時系列データを利用した教師あり学習により異常等を検知する場合と、ベッチ系列自体の変化から教師なし学習により異常等を検知する場合とがある。しかしながら、上記技術では、ベッチ系列を入力とした教師なし学習により異常等を検知する場合、必ずしも検知対象である擬似アトラクタの形状変化を認識できないことがあり、教師なしの時系列データ解析に対しては異常検知の精度が劣化する場合がある。
具体的には、時系列データの構造的な特徴は、擬似アトラクタの形状が特徴づけており、時系列データの重要な変化は、ベッチ系列における半径の大きい領域のベッチ数の変化として表れる。図13は、疑似アトラクタの性質を説明する図である。図13に示すように、擬似アトラクタが図13の(a)から図13の(b)に変化した場合、疑似アトラクタ全体の形状に変化が生じる。一方で、図13の(b)の状態から直径Lが2つに変化したとしても、疑似アトラクタ全体の形状に変化としては小さい。つまり、ベッチ数の変化は、半径が大きければ大きいほど擬似アトラクタの形状の変化を表す量として重要度が高く、擬似アトラクタにおける穴の個数は半径が大きければ大きいほど疑似アトラクタの大域的な形状を表す。
しかし、上記技術を用いて得られるベッチ系列では、半径の上限を与えたもとでベッチ数を計算するので、半径の大きい領域のベッチ数はベッチ系列全体の一部と判定される。そのため、ベッチ系列において半径の大きい領域のベッチ数が占める情報量は、半径の小さい領域と比較して相対的に小さくなる。例えば、半径の小さい領域おいて、ベッチ数が60から59に変化した場合と、半径が大きい領域において、ベッチ数が2から1に変化した場合では、半径が大きい領域のベッチ数の変化は少ないが疑似アトラクタの大域的な形状を表しているにも関わらず、変化量は同一視される。
このような場合であっても、教師あり学習の場合では、教師ラベルに対する変化を学習することから、教師ラベルに関与しない変化は無視することができるので、時系列データの解析において異常を検知することができる。一方、教師なし学習では、特徴量であるベッチ系列全体の変化を見ることから、着目したい部分の変化がそうでない部分の変化と比較して相対的に情報量が大きくなるような特徴量を入力とする必要があるが、上述したように変化量が同一視されるので、半径が大きい領域のベッチ数の変化を適切に検知できず、時系列データの解析において異常を検知することができない。
このように、時系列データにおいて、検知が求められる、半径が大きい領域の変化量は、半径が小さい領域の変化量ほどは大きくないので、教師あり学習と同様の手法により、教師なし学習でベッチ系列から異常等を検知する場合、必ずしも、検知対象の異常に対応した変化を認識できないという問題が生じる。
一つの側面では、教師なしの時系列データ解析において異常に対応した変化を認識することができる異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置を提供することを目的とする。
第1の案では、異常候補抽出プログラムは、複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成する処理をコンピュータに実行させる。異常候補抽出プログラムは、前記ベッチ系列から、前記複数のベッチ系列から、前記ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の変換ベッチ系列を生成する処理をコンピュータに実行させる。異常候補抽出プログラムは、前記複数の変換ベッチ系列におけるベッチ数に基づき、前記複数の時系列データから異常候補を抽出する処理をコンピュータに実行させる。
一実施形態によれば、教師なしの時系列データ解析において異常に対応した変化を認識することができる。
図1は、実施例1にかかる抽出装置の全体例を説明する図である。 図2は、実施例1にかかる抽出装置の機能構成を示す機能ブロック図である。 図3は、時系列データの例を示す図である。 図4は、学習対象とする時系列データの一例を示す図である。 図5は、パーシステントホモロジについて説明するための図である。 図6は、バーコードデータと生成される連続データとの関係について説明するための図である。 図7は、ベッチ数を計算する半径の間隔を単調減少させる例を説明する図である。 図8は、間引きによる改良ベッチ系列を説明する図である。 図9は、処理の流れを示すフローチャートである。 図10は、改良ベッチ系列の例を説明する図である。 図11は、改良ベッチ系列による変化点検知を説明する図である。 図12は、ハードウェア構成例を説明する図である。 図13は、疑似アトラクタの性質を説明する図である。
以下に、本願の開示する異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる抽出装置の全体例を説明する図である。図1に示すように、実施例1にかかる抽出装置10は、教師なしの時系列データである学習データに対して、パーシステントホモロジ変換を実行してベッチ系列を生成する。そして、抽出装置10は、ベッチ系列を特徴量として機械学習や深層学習(ディープラーニング(DL)・Deep Learning)などを用いた判別処理(学習処理)を実行して、学習データを事象ごとに正しく判別(分類)できるように、ニューラルネットワーク(NN:Neural Network)などを学習する。
例えば、抽出装置10は、複数の時系列データそれぞれからベッチ系列を生成し、ベッチ系列に基づいて、他の時系列データから事象が変化した時系列データを抽出する。そして、抽出装置10は、通常の時系列データに対応する事象と、変化が検出された時系列データに対応する事象とが判別できるように学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。
具体的には、抽出装置10は、複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成する。抽出装置10は、複数のベッチ系列から、ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の変換ベッチ系列(改良ベッチ系列)を生成する。抽出装置10は、複数の変換ベッチ系列におけるベッチ数に基づき、複数の時系列データから異常候補を抽出する。
つまり、抽出装置10は、擬似アトラクタのもつ性質「穴の個数の変化は、半径が大きい部分の変化ほど大域的な形状な変化を表し、変化を表す重要度は半径に応じて単調に高くなる」が保存される改良ベッチ系列を構成し、この改良ベッチ系列を教師なし学習の入力とする。この結果、抽出装置10は、教師なしの時系列データ解析において異常に対応した変化を認識することができる。なお、抽出装置10は、サーバ、パーソナルコンピュータ、タブレットなどのコンピュータ装置の一例である。また、抽出装置10と学習モデルによる推定処理を実行する装置とは、別々の装置で実現することもでき、一つの装置で実現することもできる。
[機能構成]
図2は、実施例1にかかる抽出装置10の機能構成を示す機能ブロック図である。図2に示すように、抽出装置10は、通信部11と記憶部12と制御部20を有する。
通信部11は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部11は、管理者の端末から、処理開始指示を受信する。また、通信部11は、管理者の端末等から、学習データ(入力データ)を受信して学習データDB13に格納する。
記憶部12は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、学習データDB13や学習結果DB14を記憶する。
学習データDB13は、学習対象のデータを記憶するデータベースである。具体的には、学習データDB13は、教師なしの時系列のデータを記憶する。図3は、時系列データの例を示す図である。図3は心拍数の変化を示す時系列データであり、縦軸が心拍数(beats per minute)を表し、横軸は時間を表す。
なお、ここでは連続データとして心拍数の時系列データを例示したが、このような時系列データに限られるわけではない。例えば、心拍数以外の生体データ(脳波、脈拍或いは体温などの時系列データ)、ウェアラブルセンサのデータ(ジャイロセンサ、加速度センサ或いは地磁気センサなどの時系列データ)、金融データ(金利、物価、国際収支或いは株価などの時系列データ)、自然環境のデータ(気温、湿度或いは二酸化炭素濃度などの時系列データ)、又は社会データ(労働統計或いは人口統計などのデータ)等であってもよい。但し、本実施の形態の対象である連続データは、少なくとも式(1)のルールに従って変化するデータであるとする。
Figure 0006950504
学習結果DB14は、学習結果を記憶するデータベースである。例えば、学習結果DB14は、制御部20による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された各種パラメータを記憶する。
制御部20は、抽出装置10全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部20は、系列生成部21、学習部22を有する。なお、系列生成部21、学習部22は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。また、系列生成部21は、第1生成部と第2生成部の一例であり、学習部22は、抽出部の一例である。
系列生成部21は、学習データDB13に記憶される複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成する処理部である。また、系列生成部21は、複数のベッチ系列から、ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の改良ベッチ系列を生成する処理部である。
具体的には、系列生成部21は、特開2017−97643号公報と同様の手法によってベッチ系列を作成した後または作成する過程で、改良ベッチ系列を生成する。ここで、ベッチ系列の生成と改良ベッチ系列の生成とについて具体的に説明する。
(ベッチ系列の生成)
まず、図4から図6を用いて、特開2017−97643号公報と同様の手法によるベッチ系列の生成を簡単に説明する。特開2017−97643号公報では、ベッチ数を計算する半径の区間[rmin,rmax]をm−1等分し、各半径r(i=1,・・・,m)におけるベッチ数B(r)を計算し、ベッチ数を並べた[B(r),B(r),B(r),・・・,B(r)]のベッチ系列を生成する。
図4は、学習対象とする時系列データの一例を示す図である。図5は、パーシステントホモロジについて説明するための図である。図6は、バーコードデータと生成される連続データとの関係について説明するための図である。
図4を用いて、疑似アトラクタの生成について説明する。例えば図4に示すような、関数f(t)(tは時間を表す)で表される連続データを考える。そして、実際の値としてf(1),f(2),f(3),・・・,f(T)が与えられているとする。本実施の形態における疑似アトラクタは、連続データから遅延時間τ(τ≧1)毎に取り出されたN点の値を成分とする、N次元空間上の点の集合である。ここで、Nは埋め込み次元を表し、一般的にはN=3又は4である。例えばN=3且つτ=1である場合、(T−2)個の点を含む以下の疑似アトラクタが生成される。
疑似アトラクタ={(f(1),f(2),f(3))、(f(2),f(3),f(4))、(f(3),f(4),f(5))、・・・、(f(T−2),f(T−1),f(T))}
続いて、系列生成部21は、疑似アトラクタを生成し、パーシステントホモロジ変換を用いてベッチ系列へ変換する。なお、ここで生成されるアトラクタは、有限個の点集合であることから「疑似アトラクタ」と呼ぶこととする。
ここで、「ホモロジ」とは、対象の特徴をm(m≧0)次元の穴の数によって表現する手法である。ここで言う「穴」とはホモロジ群の元のことであり、0次元の穴は連結成分であり、1次元の穴は穴(トンネル)であり、2次元の穴は空洞である。各次元の穴の数はベッチ数と呼ばれる。そして、「パーシステントホモロジ」とは、対象(ここでは、点の集合(Point Cloud))におけるm次元の穴の遷移を特徴付けるための手法であり、パーシステントホモロジによって点の配置に関する特徴を調べることができる。この手法においては、対象における各点が球状に徐々に膨らまされ、その過程において各穴が発生した時刻(発生時の球の半径で表される)と消滅した時刻(消滅時の球の半径で表される)とが特定される。
図5を用いて、パーシステントホモロジをより具体的に説明する。ルールとして、1つの球が接した場合には2つの球の中心が線分で結ばれ、3つの球が接した場合には3つの球の中心が線分で結ばれる。ここでは、連結成分及び穴だけを考える。図5(a)のケース(半径r=0)においては、連結成分のみが発生し、穴は発生していない。図5(b)のケース(半径r=r1)においては、穴が発生しており、連結成分の一部が消滅している。図5(c)のケース(半径r=r2)においては、さらに多くの穴が発生しており、連結成分は1つだけ持続している。図5(d)のケース(半径r=r3)においては、連結成分の数は1のままであり、穴が1つ消滅している。
パーシステントホモロジの計算過程において、ホモロジ群の元(すなわち穴)の発生半径と消滅半径とが計算される。穴の発生半径と消滅半径とを使用することで、バーコードデータを生成することができる。バーコードデータは穴次元毎に生成されるので、複数の穴次元のバーコードデータを統合することで1塊のバーコードデータが生成できる。連続データは、パーシステントホモロジにおける球の半径(すなわち時間)とベッチ数との関係を示すデータである。
図6を用いて、バーコードデータと生成される連続データとの関係について説明する。上段のグラフはバーコードデータから生成されるグラフであり、横軸が半径を表す。下段のグラフは連続データ(ベッチ系列と記載する場合がある)から生成されるグラフであり、縦軸はベッチ数を表し、横軸は時間を表す。上で述べたように、ベッチ数は穴の数を表しており、例えば上段のグラフにおいて破線に対応する半径の時には存在している穴の数が10であるので、下段のグラフにおいては破線に対応するベッチ数も10である。ベッチ数は、ブロック毎に計数される。なお、下段のグラフは疑似的な時系列データのグラフであるので、横軸の値自体が意味を持つわけではない。
従来の手法では、このようにして生成されたベッチ系列を入力として判別処理が実行される。しかし、図6に示したベッチ系列は、各半径における穴の個数の変化を均等に扱っているので、疑似アトラクタの形状変化に基づく教師なしの時系列データの学習においては、特徴量の変化を検出することができない。そこで、本実施例では、擬似アトラクタのもつ性質「穴の個数の変化は、半径が大きい部分の変化ほど大域的な形状な変化を表し,変化を表す重要度は半径に応じて単調に高くなる」が保存される改良ベッチ系列を構成する。
具体的には、系列生成部21は、「手法1:ベッチ数の計算においてベッチ数を計算する半径の間隔を単調減少させる」または「手法2:半径に対して単調増加する重みをつけた重みベッチ数を計算する」を用いて、改良ベッチ系列を生成する。次に、手法1と手法2について具体的に説明する。
(手法1:改良ベッチ系列)
手法1は、半径の大きさが大きくなるにつれてベッチ数の変化がより詳細に表されたベッチ系列を構成して、擬似アトラクタの性質を保存する手法である。図7は、ベッチ数を計算する半径の間隔を単調減少させる例を説明する図である。図7に示すように、手法1は、半径rのiが増加するにつれて、半径rの間隔を単調減少させることで、半径が大きい部分の変化を重要視する。
例えば、系列生成部21は、ベッチ数を計算する半径の区間[rmin,rmax]において,i番目のベッチ数を計算する半径を式(2)とする。ここで、R(i)は、R(1)=rminを満たすとともに、R(m)=rmaxを満たす。そして、系列生成部21は、各半径rにおけるベッチ数B(r)を計算する。その後、系列生成部21は、各ベッチ数を並べた[B(r),B(r),B(r),・・・,B(r)]を改良ベッチ系列とする。
Figure 0006950504
なお、i番目の半径R(i)は、式(3)を満たす関数、言い換えると、傾きが単調減少する関数であればよく、例えば式(4)に示すような2次関数や式(5)に示すような指数関数を用いることができる。ただし、式(5)において、a>0、bはR(1)=rminおよびR(m)=rmaxを満たすように定める。
Figure 0006950504
Figure 0006950504
Figure 0006950504
続いて、手法1による別例を説明する。具体的には、系列生成部21は、ベッチ数を計算する半径の区間[rmin,rmax]をm−1等分し、各半径r(i=1,・・・,m)におけるベッチ数B(r)を計算する。続いて、系列生成部21は、ベッチ数を並べたベッチ系列[B(r),B(r),B(r),・・・,B(r)]から1番目から順番にp個間引いて1つ残す、p−1個間引いて1個残すというように、間隔を1個ずつ減らしながらベッチ数を間引いていく。その後、系列生成部21は、間引いたあとに残ったベッチ数の系列を改良ベッチ系列とする。
図8は、間引きによる改良ベッチ系列を説明する図である。図8では、m=9の場合を例示し、ベッチ系列として[B(r),B(r),B(r),B(r),B(r),B(r),B(r),B(r),B(r)]が算出された例である。この場合、系列生成部21は、はじめの3個を間引いてB(r)を残し、次の2個を間引いてB(r)を残し、次の1個を間引いてB(r)を残す。このようにして、系列生成部21は、改良ベッチ系列[B(r),B(r),B(r)]を生成する。なお、ベッチ系列の間引き方は、上記手法に限定されず、間引く間隔が単調に減るような間引き方であればよい。なお、間引くタイミングは、ベッチ系列を生成するタイミングでもよく、ベッチ系列生成後の改良ベッチ系列を生成するタイミングでもよく、任意に設定変更することができる。
(手法2:改良ベッチ系列)
例えば、系列生成部21は、半径r(i=1,・・・,m)におけるベッチ数B(r)を計算する。ここで、ベッチ数を計算する半径の区間を[rmin,rmax]とし、rmin=r<r<・・・r=rmaxとする。
続いて、系列生成部21は、各半径で計算したベッチ数B(r)に対して、重みとしてW(r)=exp(r)を乗算し、重み付きベッチ数を式(6)のように計算する。そして、系列生成部21は、重み付きベッチ数を並べた系列である式(7)を改良ベッチ系列とする。
Figure 0006950504
Figure 0006950504
なお、重みW(r)は、半径rに関して「0≦r≦rのときW(r)≦W(r)」のように、単調増加する関数であればよい。例えば、W(r)=rのような線形関数mW(r)=r(p>1)のような単調増加する高次関数、W(r)=exp(r)のような指数関数を用いることができる。
図2に戻り、学習部22は、系列生成部21によって生成された改良ベッチ系列を入力として、学習処理を実行する処理部である。具体的には、学習部22は、複数の改良ベッチ系列におけるベッチ数に基づき、複数の時系列データから異常候補を抽出する。例えば、学習部22は、改良ベッチ系列のベッチ数に基づき、時系列データの異常候補を抽出することで、時系列データの事象が判別できるように学習する。つまり、学習部22は、時系列データを事象A、時系列データを事象Bなどのように分類したり、時系列データの中から他とは異なるイベントの発生箇所を検出したりする。
そして、学習部22は、時系列データの特徴量から事象が分類できるようにDL等によって学習し、学習結果を学習結果DB14に格納する。学習の結果は、点過程時系列データの分類結果(すなわちDL学習の出力)を含み、入力から出力を計算する際のニューラルネットワークの各種パラメータが含まれていてもよい。
[処理の流れ]
次に、上述した処理について説明する。ここでは、一例として、間引きによる改良ベッチ系列の生成処理について説明する。図9は、処理の流れを示すフローチャートである。
図9に示すように、系列生成部21は、時系列データを学習データDB13から読み出し(S101)、疑似アトラクタを生成する(S102)。続いて、系列生成部21は、疑似アトラクタからベッチ数を算出した後(S103)、ベッチ数の間引きを実行して(S104)、改良ベッチ系列を生成する(S105)。
そして、学習部22は、改良ベッチ系列を入力として機械学習を実行する(S106)。その後、未処理の時系列データがある場合(S107:Yes)、S101以降が繰り返され、未処理の時系列データがない場合(S107:No)、処理が終了する。
[効果]
上述したように、抽出装置10は、時系列データに対してトポロジカルデータアナリシスを適用し、擬似アトラクタの形状の変化を検知する教師なし学習を行う際、半径が大きいほど変化を表す量として重要な意味を持つ性質を残した改良ベッチ系列を生成することができる。このため、抽出装置10は、疑似アトラクタの形状変化に基づいて時系列データの教師なし学習を行うことができ、時系列データの構造的な変化に基づく教師なし学習を行うことができる。
図10と図11を用いて具体的に説明する。図10は、改良ベッチ系列の例を説明する図である。図11は、改良ベッチ系列による変化点検知を説明する図である。図10の(a)は、株価終値の対数差分系列を示す。この株価終値の対数差分系列は、各日に大きな変化を示すイベントが発生しているが、教師なしのデータであることから、従来手法を用いてベッチ系列を生成した場合、図10の(b)に示すように、各日のベッチ系列の差が小さい。したがって、このまま学習しても、イベント発生有無などを検出することが難しい。
これに対して、抽出装置10は、各半径のベッチ数に対して、半径の大きさに応じて単調に増加する重みを付けた重み付きベッチ数を計算することで、図10の(b)に示す従来のベッチ系列から、図10の(c)に示す改良ベッチ系列を生成することができる。したがって、各日のイベントの大きさが現れる改良ベッチ系列を入力として、教師なし学習を実行することができるので、教師なしの時系列データ解析において異常に対応した変化を認識することができる。
また、図11の(a)は、株価の値動きを示す時系列データである。このような時系列データは、瞬間的にスケールの異なる値(外れ値)などを取る場合がある。この場合、図11の(b)に示すように、株価の時系列データからベッチ数を計算しても違いが差異化できない。しかし、図11の(c)に示すように、ベッチ数に対して半径の大きさに対して指数的に増加する重みで重みを付けることで、半径の大きい部分の違いが差異化される。この重みを付けた改良ベッチ系列に基づいて変化点検知を行うことで、図11の(d)に示すように、元の時系列データの外れ値を変化点として検出できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[学習手法]
実施例1の学習は、DLに限らずに他の機械学習を採用することができる。また、間隔アトラクタの次元数も任意に設定することができる。なお、学習後に推定対象のデータのラベル推定を行う場合、学習時と同様の処理を行って学習モデルに入力する。
[ハードウェア]
図12は、ハードウェア構成例を説明する図である。図12に示すように、抽出装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図12に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、抽出装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、系列生成部21、学習部22等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、系列生成部21、学習部22等と同様の処理を実行するプロセスを実行する。
このように抽出装置10は、プログラムを読み出して実行することで抽出方法を実行する情報処理装置として動作する。また、抽出装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、抽出装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、アイテムを表示する処理部と、選好を推定する処理部とを別々の筐体で実現することもできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
10 抽出装置
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
20 制御部
21 系列生成部
22 学習部

Claims (6)

  1. コンピュータに、
    複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成し、
    前記複数のベッチ系列から、前記ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の変換ベッチ系列を生成し、
    前記複数の変換ベッチ系列におけるベッチ数に基づき、前記複数の時系列データから異常候補を抽出する、
    処理をコンピュータに実行させる異常候補抽出プログラム。
  2. 前記ベッチ数を計算する半径の間隔を単調減少させる関数を用いて決定し、決定した間隔で前記ベッチ数を算出し、算出した各ベッチ数を用いて、前記複数の変換ベッチ系列を生成する処理を実行させる請求項1に記載の異常候補抽出プログラム。
  3. 前記複数のベッチ系列に含まれる各半径のベッチ数から、半径が大きくなるに連れて単調減少する間隔でベッチ数を取得し、取得した各半径のベッチ数を用いて、前記複数の変換ベッチ系列を生成する処理を前記コンピュータに実行させる請求項1に記載の異常候補抽出プログラム。
  4. 前記複数のベッチ系列に含まれる各半径のベッチ数に、半径に対して単調増加する重みを乗算した複数の重み付きベッチ数を算出して、算出した前記複数の重み付きベッチ数を用いて、前記複数の変換ベッチ系列を生成する処理を前記コンピュータに実行させる請求項1に記載の異常候補抽出プログラム。
  5. コンピュータが、
    複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成し、
    前記複数のベッチ系列から、前記ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の変換ベッチ系列を生成し、
    前記複数の変換ベッチ系列におけるベッチ数に基づき、前記複数の時系列データから異常候補を抽出する、
    処理を実行する異常候補抽出方法。
  6. 複数の時系列データからそれぞれ生成した複数の擬似アトラクタを、パーシステントホモロジ変換して得られたベッチ数による複数のベッチ系列を生成する第1生成部と、
    前記複数のベッチ系列から、前記ベッチ数を生成する際の半径が大きい領域を当該半径が小さい領域よりも重みづけた複数の変換ベッチ系列を生成する第2生成部と、
    前記複数の変換ベッチ系列におけるベッチ数に基づき、前記複数の時系列データから異常候補を抽出する抽出部と
    を有する異常候補抽出装置。
JP2017236217A 2017-12-08 2017-12-08 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 Active JP6950504B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017236217A JP6950504B2 (ja) 2017-12-08 2017-12-08 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
US16/207,350 US20190180194A1 (en) 2017-12-08 2018-12-03 Computer-readable recording medium, abnormality candidate extraction method, and abnormality candidate extraction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236217A JP6950504B2 (ja) 2017-12-08 2017-12-08 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置

Publications (2)

Publication Number Publication Date
JP2019105871A JP2019105871A (ja) 2019-06-27
JP6950504B2 true JP6950504B2 (ja) 2021-10-13

Family

ID=66697023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236217A Active JP6950504B2 (ja) 2017-12-08 2017-12-08 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置

Country Status (2)

Country Link
US (1) US20190180194A1 (ja)
JP (1) JP6950504B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3324183B1 (en) * 2015-07-15 2019-03-13 Osaka University Image analysis device, image analysis method, image analysis system, image analysis program, and recording medium
US20210311009A1 (en) * 2018-07-31 2021-10-07 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
JP6641056B1 (ja) * 2019-07-16 2020-02-05 株式会社東芝 機器の異常診断方法および機器の異常診断システム
KR102525187B1 (ko) 2021-05-12 2023-04-24 네이버클라우드 주식회사 시계열 기반 이상 탐지 방법 및 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314530A (ja) * 1995-05-23 1996-11-29 Meidensha Corp 故障予知装置
JPH11296496A (ja) * 1998-04-09 1999-10-29 Hitachi Ltd パターン認識装置
JP6606997B2 (ja) * 2015-11-25 2019-11-20 富士通株式会社 機械学習プログラム、機械学習方法及び情報処理装置

Also Published As

Publication number Publication date
US20190180194A1 (en) 2019-06-13
JP2019105871A (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
Zheng et al. Generalized composite multiscale permutation entropy and Laplacian score based rolling bearing fault diagnosis
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
EP4053757A1 (en) Degradation suppression program, degradation suppression method, and information processing device
JP7304223B2 (ja) ハイブリッド学習技法を生成するための方法およびシステム
JPWO2016084326A1 (ja) 情報処理システム、情報処理方法、及び、プログラム
JP2019016193A (ja) 分析方法、分析装置及び分析プログラム
US11640553B2 (en) Method for analyzing time-series data based on machine learning and information processing apparatus
US20210365771A1 (en) Out-of-distribution (ood) detection by perturbation
JP2017033175A (ja) 画像処理装置、画像処理方法及びプログラム
JP7131351B2 (ja) 学習方法、学習プログラムおよび学習装置
JP7119901B2 (ja) 分析装置、分析方法および分析プログラム
EP3923228B1 (en) Data analysis method, device and program
JP7040065B2 (ja) 検出プログラム、検出方法および検出装置
JP6950505B2 (ja) 判別プログラム、判別方法および判別装置
CN114120180A (zh) 一种时序提名的生成方法、装置、设备及介质
JP7234742B2 (ja) 特徴量抽出方法、特徴量抽出プログラムおよび特徴量抽出装置
JP2018181052A (ja) モデル同定装置、予測装置、監視システム、モデル同定方法および予測方法
CN115769194A (zh) 跨数据集的自动数据链接
JP5882259B2 (ja) 信号処理装置、方法、及びプログラム
JP6954070B2 (ja) 判別プログラム、判別方法および判別装置
CN117574098B (zh) 一种学习专注度分析方法以及相关装置
TWI824681B (zh) 裝置管理系統、裝置的障礙原因推測方法以及非暫時性地記憶程式的記憶媒體
EP4258184A1 (en) Action sequence determination device, action sequence determination method, and action sequence determination program
JP2018151913A (ja) 情報処理システム、情報処理方法、及びプログラム
CN117808591A (zh) 客户流失预测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150