JP2010123072A - パルスニューロンモデルのためのバックプロパゲーション学習法 - Google Patents
パルスニューロンモデルのためのバックプロパゲーション学習法 Download PDFInfo
- Publication number
- JP2010123072A JP2010123072A JP2008298487A JP2008298487A JP2010123072A JP 2010123072 A JP2010123072 A JP 2010123072A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2010123072 A JP2010123072 A JP 2010123072A
- Authority
- JP
- Japan
- Prior art keywords
- neuron model
- output
- pulse
- layer
- pulse neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供する。
【解決手段】パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。パルスニューロンモデルの双対性を利用して教師信号を生成することにより、誤差関数を微分する計算が必要でなくなり、階層型パルスニューラルネットワークに適用可能となる。
【選択図】図3
【解決手段】パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。パルスニューロンモデルの双対性を利用して教師信号を生成することにより、誤差関数を微分する計算が必要でなくなり、階層型パルスニューラルネットワークに適用可能となる。
【選択図】図3
Description
本発明は、ニューラルネットワークのためのバックプロパゲーション学習方法に関し、特に、パルスニューロンモデルにより構築されたニューラルネットワーク(以下、「パルスニューラルネットワーク」という。)に適したバックプロパゲーション学習法に関する。
ニューラルネットワークで一般的な非線形問題を解くためには、入力層と出力層との間に中間層を有する3階層以上の階層型ニューラルネットワークにする必要があり、階層型ニューラルネットワークの学習法としてはバックプロパゲーション法(誤差逆伝播法)が知られている。
また、パルスニューラルネットワークのための教師あり学習法として、下記非特許文献1に記載された手法がある。
さらに、ディジタルパーセプトロンのための双対性を利用したバックプロパゲーション法として、下記非特許文献2に記載された手法がある。
なお、下記非特許文献3には、パルスニューロンモデルのハードウェア化手法が記載されている。
黒柳奨、岩田彰、「パルスニューロンモデルのための教師あり学習則」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1998年3月、NC97−151、p.95−102 山田 樹一、黒柳奨、岩田彰、「ニューロンモデルに存在する双対性を利用したニューラルネットワークのための教師あり学習手法」、電子情報通信学会論文誌(D−II)、2004年2月、第J87−D−II巻、第2号、p.399−406 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128
黒柳奨、岩田彰、「パルスニューロンモデルのための教師あり学習則」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1998年3月、NC97−151、p.95−102 山田 樹一、黒柳奨、岩田彰、「ニューロンモデルに存在する双対性を利用したニューラルネットワークのための教師あり学習手法」、電子情報通信学会論文誌(D−II)、2004年2月、第J87−D−II巻、第2号、p.399−406 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128
しかし、一般的に用いられているバックプロパゲーション法では、誤差を最小化することを目的とするため、誤差関数を微分する計算を行う。しかし、パルスニューロンモデルでは出力関数が微分不可能であるために、この計算ができず、一般的なバックプロパゲーション法を適用できないという問題があった。
また、上記非特許文献1の手法は、入力層と出力層の2階層構造のみ考慮したものであり、階層型パルスニューラルネットワーク(3階層以上のパルスニューラルネットワーク)には適用できないという問題があった。
さらに、上記非特許文献2の手法は、ディジタルパーセプトロンのための手法であり、入出力がパルスである階層型パルスニューラルネットワークに対する適用はなされていなかった。
この発明は、上述した問題を解決するものであり、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供することを目的とする。
本発明のパルスニューロンモデルのためのバックプロパゲーション学習法は、パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とする。
これによれば、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供できる。
ここで、請求項2記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をpO k(t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をpT k(t)、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記[数12]により計算される教師信号Tjにより前記中間層のj番目のパルスニューロンモデルが学習を行うこととできる。
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。
また、請求項4記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、出力層のk番目のパルスニューロンモデルの時間tにおける出力信号をOk、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をTO k、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数15]のように定義された誤差ΔTjを計算し、下記(1)〜(3)に従って教師信号Tjを決定し、該教師信号Tjにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。
本発明の学習・識別装置は、上記いずれかのパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする。
本発明の演算回路は、請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tjを生成することを特徴とする。
例えば、上記演算回路は、kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号TO kと前記出力信号Okと前記結合重みwO kj(t)とから、TO k=0かつOk=0のとき0を、TO k=0かつOk=1のとき−wO kj(t)を、TO k=1かつOk=0のときwO kj(t)を、TO k=1かつOk=1のとき0を出力するK個の論理回路と、前記各論理回路からの出力を加算する加算器と、前記加算器からの出力に対してビットシフトを行って前記学習係数αOの乗算を行い、誤差ΔTjを算出するシフト演算器と、前記シフト演算器から出力された誤差ΔTjと中間層からの出力Hj(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tjを出力する比較器と、を備えるものとすることができる。
本発明のバックプロパゲーション学習法によれば、誤差関数を微分する計算が必要でなく、階層型パルスニューラルネットワークに適用可能である。
〔第1実施形態〕
まず、第1実施形態に係るバックプロパゲーション学習法である提案手法1について説明する。提案手法1では、図1に示すような従来のパルスニューロンモデル(上記非特許文献1参照)に対して、図2に示すように、出力電位pO(t)を計算・保持する部分と、教師電位pT(t)を計算・保持する部分と、固定値で上昇する入力電位(入力ポテンシャル)Inpk(t)を計算・保持する部分とを構成要素として加えた新規なパルスニューロンモデルを用いる。
まず、第1実施形態に係るバックプロパゲーション学習法である提案手法1について説明する。提案手法1では、図1に示すような従来のパルスニューロンモデル(上記非特許文献1参照)に対して、図2に示すように、出力電位pO(t)を計算・保持する部分と、教師電位pT(t)を計算・保持する部分と、固定値で上昇する入力電位(入力ポテンシャル)Inpk(t)を計算・保持する部分とを構成要素として加えた新規なパルスニューロンモデルを用いる。
図2に示すパルスニューロンモデルでは、図1に示すパルスニューロンモデルと同様に、入力パルスINk(t)がk番目のシナプスに到着したとき、局所膜電位pk(t)が結合重みwkの値だけ増加する。局所膜電位pk(t)は、時間の経過とともに次式[数1]に従って減少する。そして、パルスニューロンモデルの内部電位I(t)は次式[数2]によって計算され、出力o(t)は、次式[数3]によって計算される。なお、τは時定数、nは入力の総数、θは閾値、Hは単位ステップ関数(unit step function)であり、tは時間でΔt=1とする。
提案手法1では、以上のように構成されたパルスニューロンモデルの双対性を利用する。ニューロンモデルの双対性については上記非特許文献2に記載されているが、ここで簡単に説明すると、一般的なニューロンモデルの出力は次式[数4]で計算される。
次式[数6]は、結合重みベクトルの更新に用いられる関数であるが、次式[数7]に示すように、ニューロンモデルの双対性により入力ベクトルの更新にも同じ関数が使用できる。なお、wnewは更新後の結合重みベクトルであり、inewは更新後の入力ベクトルである。
以上のことを踏まえて、提案手法1について説明する。以下の説明において、Hj(t)は中間層のj番目のパルスニューロンモデルの出力、Inpj(t)は中間層のj番目のパルスニューロンモデルからの入力による入力ポテンシャル、pO k(t)は出力層(すなわち、前記中間層を前段としたときの後段の層)のk番目のパルスニューロンモデルの出力電位、pT k(t)は出力層のk番目のパルスニューロンモデルの教師電位、wO kj(t)は中間層のj番目のパルスニューロンモデルと出力層のk番目のパルスニューロンモデルとの間の結合重み、αOは学習係数である。
パルスニューロンモデルの重みの更新は、上記非特許文献1の記載からも分かるように、次式[数8]で表せる。
かかる提案手法1を用いて学習を行い、入力データを識別する学習・識別装置の構成例を図3に示す。図3は、入力層1、中間層2、及び、出力層3を有した3階層のパルスニューラルネットワークの例であるが、中間層2のパルスニューロンモデルの数Jと同じ数の教師信号生成素子5を有する教師信号生成素子層4を備えている。出力層3のパルスニューロンモデルの数はKとする。中間層2からの出力Hj、出力層3からの出力Ok、及び、出力層3に与えられる教師信号Tkは、各教師信号生成素子5にも与える。なお、中間層2にはバイアス入力が与えられる。また、出力層の各パルスニューロンモデルの重み(結合重み)は、対応する教師信号生成素子5にコピーされる。入力層1の各パルスニューロンモデルは図1に示すパルスニューロンモデルであり、中間層2及び出力層3の各パルスニューロンモデルは図2に示すパルスニューロンモデルである。なお、入力層1は、入力パルスをそのままのパターンで中間層2に与えるように構成されている。
そして、この学習・識別装置の学習時の動作について、図4に基づいて説明すると、この学習・識別装置は、処理開始後、まず、入力層1、中間層2、及び、出力層3の各パルスニューロンモデルを初期化する(ステップS101)。次に、出力層3の各重みwO kj(t)(k=1〜K)を、j番目の教師信号生成素子5にコピーする(S102)。なお、j=1〜Jである。
そして、学習を開始し(S103)、入力層1、中間層2、及び、出力層3の各素子(パルスニューロンモデル)が従来通りの前向き演算を行う(S104)。出力層3の各素子は、外部から与えられた教師信号TO k(t)を元に重みwO kj(t)を更新する(S105)。一方、各教師信号生成素子5は、コピーしておいた重みwO kj(t)と、出力層3からの出力Ok(t)と、教師信号TO k(t)とから上記[数12]に従って教師信号Tj(t)を計算し出力する(S106)。なお、学習係数αOは、予め各教師信号生成素子5に与えられているものとする。ステップS106で求められた教師信号Tj(t)は、中間層2のj番目の素子に与えられ、中間層2の各素子はこの教師信号Tj(t)に基づいて重みを更新する(S107)。ステップS105〜107を終えると、ステップS102に戻って、以下、所定の学習回数、ステップS102〜107を繰り返す。
なお、図3に示す構成例、及び、図4に示す動作フローは、後述する提案手法2及び提案手法3にも適用可能であるが、後述するように、提案手法2では下記[数13]、提案手法3では下記[数15]に従って、誤差ΔTjを計算し、下記ルール(1)〜(3)に従って教師信号Tj(t)を出力する。
提案手法1によれば、誤差関数を微分する一般的なバックプロパゲーション法とは全く異なった手法で、階層型パルスニューラルネットワークを学習させることができる。
〔第2実施形態〕
次に、提案手法1を改良した第2実施形態に係る提案手法2について説明する。上記[数12]では、教師信号Tjは実数値となってしまい、そのままではパルスニューロンモデルによる扱いが容易とは言えない。そこで、β≡exp(−1/τ)<1であり、a=0の場合以外は、βaは十分小さく、βawO kj(t−a)は無視できるとして、[数12]を次式[数13]のように変換する。
次に、提案手法1を改良した第2実施形態に係る提案手法2について説明する。上記[数12]では、教師信号Tjは実数値となってしまい、そのままではパルスニューロンモデルによる扱いが容易とは言えない。そこで、β≡exp(−1/τ)<1であり、a=0の場合以外は、βaは十分小さく、βawO kj(t−a)は無視できるとして、[数12]を次式[数13]のように変換する。
(1)|ΔTj|≦θlearnの場合、Hj(t)は望ましい出力Tjに一致しているとして、Tj=Hj(t)とし、学習を続ける。
(2)ΔTj<−θlearnの場合、Hjは望ましくない出力1であるので、Tj=0とし、中間層のj番目のパルスニューロンモデルが1を出力しないように、結合重みを更新する。
(3)ΔTj>θlearnの場合、Hjは出力1であるべきなので、Tj=1とし、中間層のj番目のパルスニューロンモデルが1を出力するように、結合重みを更新する。
このように、提案手法2では、上記[数13]に従ってΔTjを算出し、上記(1)〜(3)のルールに従ってTjを定めて学習を行う。上記(1)〜(3)のルールによれば、教師信号Tjがパルス(0または1)となるので、パルスニューロンモデルによる扱いが容易となり、ハードウェア化も容易となる。提案手法2の実験例を以下に示す。
〈実験1〉
実験1では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、簡単な非線形問題としてXOR(排他的論理和)を学習し識別させた。実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりである。なお、入力層の1素子は、常に1を中間層の素子に入力するバイアス入力のための素子である。
実験1では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、簡単な非線形問題としてXOR(排他的論理和)を学習し識別させた。実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりである。なお、入力層の1素子は、常に1を中間層の素子に入力するバイアス入力のための素子である。
かかる入力及び教師信号を用いて学習を行った後、図5と同じ入力パルスを入力し識別させたときの結果を図6に示す。図6は上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表す。また、図6においては、図3と同様に、X軸は時間であり、Y軸はニューロン番号である。図6中ニューロン番号は省略されているが、出力層の出力パルス列、教師パルス列は、それぞれ下から順に番号1、2であり、中間層の出力パルス列、教師パルス列は、それぞれ、下から順に番号1、2、3、4である。また、色の濃淡は図5と同様にパルス頻度を表す。図6から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。
〈実験2〉
実験2では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、目覚まし時計のアラーム音(以下、「アラーム」という。)、インターフォンの呼び出し音(以下、「インターフォン」という。)、笛吹きケトルの沸騰音(以下、「ケトル」という。)、電話のベル音(以下、「電話」という。)、人の声、及び、ホワイトノイズの6種の音を周波数帯域毎のパルス列に変換した音データを入力して、提案手法2により学習させた。実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりである。なお、入力層の1素子は、バイアス入力のための素子である。出力層は、上記6種の音を学習する6つの素子を有する。
実験2では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、目覚まし時計のアラーム音(以下、「アラーム」という。)、インターフォンの呼び出し音(以下、「インターフォン」という。)、笛吹きケトルの沸騰音(以下、「ケトル」という。)、電話のベル音(以下、「電話」という。)、人の声、及び、ホワイトノイズの6種の音を周波数帯域毎のパルス列に変換した音データを入力して、提案手法2により学習させた。実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりである。なお、入力層の1素子は、バイアス入力のための素子である。出力層は、上記6種の音を学習する6つの素子を有する。
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表3に示す。
提案手法2によれば、学習の結果略正しい認識を行えるとともに、教師信号Tjをパルスにすることができるので、パルスニューロンモデルによる扱いが容易であり、階層型パルスニューラルネットワークに好適である。
〔第3実施形態〕
次に、提案手法2を、階層型パルスニューラルネットワークのハードウェア化に好適なものとした第3実施形態に係る提案手法3について説明する。
次に、提案手法2を、階層型パルスニューラルネットワークのハードウェア化に好適なものとした第3実施形態に係る提案手法3について説明する。
提案手法2では、ΔTjの計算がデジタル回路で実現するのに適していない。そこで、[数13]の出力電位pO k(t)、教師電位pT k(t)を、それぞれ、時間tにおける出力層のk番目のパルスニューロンモデルの出力信号Ok、時間tにおける出力層のk番目のパルスニューロンモデルへの教師信号TO k(Tkとも表記。)に置き換えて、[数13]を次式[数14]のように変換する。Ok、TO kはいずれもパルス(0又は1)である。
〈実験3〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験1と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりであり、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTkを与えて、提案手法3により学習を行った。
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験1と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりであり、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTkを与えて、提案手法3により学習を行った。
学習後、図5と同じ入力パルスを入力し識別させた結果を図7に示す。図7は、図6と同様に、上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表し、X軸は時間、Y軸はニューロン番号であるが、ニューロン番号は省略されている。また、色の濃淡は図5と同様にパルス頻度を表す。図7から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。
〈実験4〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験2と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりであり、実験2で用いたアラーム、インターフォン、ケトル、電話、人の声、及び、ホワイトノイズの6種の音から生成された音データを入力して、提案手法3により学習を行った。
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験2と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりであり、実験2で用いたアラーム、インターフォン、ケトル、電話、人の声、及び、ホワイトノイズの6種の音から生成された音データを入力して、提案手法3により学習を行った。
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表4に示す。
提案手法3によれば、学習の結果略正しい認識を行え、教師信号Tjをパルスにすることができるとともに、ΔTjの計算がデジタル回路で容易に実現できるため、階層型パルスニューラルネットワークのハードウェア化に好適である。
例えば、教師信号生成素子5は、図8に示すようにデジタル回路で実現可能である。図8において、符号10は、表5に示すように、教師パルスTO kと出力パルスOkと重みwO kj(t)とから0、wO kj(t)または−wO kj(t)を出力する論理回路であり、符号11は各論理回路10からの出力を加算する加算器であり、符号12は加算器11からの出力に対してαOの乗算を実現するためのビットシフトを行うシフト演算器であり、符号13はシフト演算器12からの出力すなわちΔTjと中間層からの出力Hjとを比較して、上記ルール(1)〜(3)に従って、教師信号Tjを出力する比較器である。なお、比較器13は、学習閾値θlearnを保有し又は入力として受け取る。
以上述べたように、提案手法3はデジタル回路において容易に実現可能であり、FPGA(Field Programmable Gate Arrays)上に実装することも可能である。すなわち、提案手法1〜3はいずれも一般のコンピュータ上でソフトウェアにより実現可能であるが、処理の高速化のためにはハードウェア化が望ましく、提案手法3は特にハードウェア化に好適である。
なお、提案手法1〜3は、勿論、上記出力層を更に中間層とするような、中間層を複数有した4階層以上の階層型パルスニューラルネットワークにも適用可能である。
1…入力層
2…中間層
3…出力層
4…教師電位生成素子層
5…教師電位生成素子
10…論理回路
11…加算器
12…シフト演算器
13…比較器
2…中間層
3…出力層
4…教師電位生成素子層
5…教師電位生成素子
10…論理回路
11…加算器
12…シフト演算器
13…比較器
Claims (7)
- パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。
- 中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をpO k(t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をpT k(t)、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記式により計算される教師信号Tjにより前記中間層のj番目のパルスニューロンモデルが学習を行うことを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
- 中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をpO k(t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をpT k(t)、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTjを計算し、下記(1)〜(3)に従って教師信号Tjを決定し、該教師信号Tjにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。 - 中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの時間tにおける出力信号をOk、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をTO k、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTjを計算し、下記(1)〜(3)に従って教師信号Tjを決定し、該教師信号Tjにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。 - 請求項1〜4のいずれかに記載のパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする学習・識別装置。
- 請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tjを生成することを特徴とする演算回路。
- kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号TO kと前記出力信号Okと前記結合重みwO kj(t)とから、TO k=0かつOk=0のとき0を、TO k=0かつOk=1のとき−wO kj(t)を、TO k=1かつOk=0のときwO kj(t)を、TO k=1かつOk=1のとき0を出力するK個の論理回路と、
前記各論理回路からの出力を加算する加算器と、
前記加算器からの出力に対してビットシフトを行って前記学習係数αOの乗算を行い、誤差ΔTjを算出するシフト演算器と、
前記シフト演算器から出力された誤差ΔTjと中間層からの出力Hj(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tjを出力する比較器と、
を備えることを特徴とする請求項6記載の演算回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008298487A JP2010123072A (ja) | 2008-11-21 | 2008-11-21 | パルスニューロンモデルのためのバックプロパゲーション学習法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008298487A JP2010123072A (ja) | 2008-11-21 | 2008-11-21 | パルスニューロンモデルのためのバックプロパゲーション学習法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010123072A true JP2010123072A (ja) | 2010-06-03 |
Family
ID=42324338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008298487A Withdrawn JP2010123072A (ja) | 2008-11-21 | 2008-11-21 | パルスニューロンモデルのためのバックプロパゲーション学習法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010123072A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907448A (zh) * | 2010-07-23 | 2010-12-08 | 华南理工大学 | 一种基于双目三维视觉的深度测量方法 |
JP2017538137A (ja) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声転写用のシステム及び方法 |
DE102017129849A1 (de) | 2016-12-28 | 2018-06-28 | Toyo Tire & Rubber Co., Ltd. | Verfahren zum Herstellen eines nassen Kautschukmasterbatches |
CN111699496A (zh) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | 神经网络型图像处理装置 |
CN112541578A (zh) * | 2020-12-23 | 2021-03-23 | 中国人民解放军总医院 | 视网膜神经网络模型 |
CN113435577A (zh) * | 2021-06-25 | 2021-09-24 | 安徽知陉智能科技有限公司 | 基于训练深度脉冲神经网络的梯度函数学习框架替换方法 |
CN114668408A (zh) * | 2022-05-26 | 2022-06-28 | 中科南京智能技术研究院 | 一种膜电位数据生成方法及*** |
WO2022145232A1 (ja) * | 2021-01-02 | 2022-07-07 | 天海 金 | 情報処理装置および情報処理方法、並びにプログラム |
-
2008
- 2008-11-21 JP JP2008298487A patent/JP2010123072A/ja not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907448A (zh) * | 2010-07-23 | 2010-12-08 | 华南理工大学 | 一种基于双目三维视觉的深度测量方法 |
JP2017538137A (ja) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 音声転写用のシステム及び方法 |
US11562733B2 (en) | 2014-12-15 | 2023-01-24 | Baidu Usa Llc | Deep learning models for speech recognition |
DE102017129849A1 (de) | 2016-12-28 | 2018-06-28 | Toyo Tire & Rubber Co., Ltd. | Verfahren zum Herstellen eines nassen Kautschukmasterbatches |
DE102017129849B4 (de) | 2016-12-28 | 2022-02-24 | Toyo Tire & Rubber Co., Ltd. | Verfahren zum Herstellen eines nassen Kautschukmasterbatches |
CN111699496A (zh) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | 神经网络型图像处理装置 |
CN111699496B (zh) * | 2018-03-14 | 2023-08-29 | 欧姆龙株式会社 | 神经网络型图像处理装置、外观检查装置及外观检查方法 |
CN112541578A (zh) * | 2020-12-23 | 2021-03-23 | 中国人民解放军总医院 | 视网膜神经网络模型 |
WO2022145232A1 (ja) * | 2021-01-02 | 2022-07-07 | 天海 金 | 情報処理装置および情報処理方法、並びにプログラム |
CN113435577A (zh) * | 2021-06-25 | 2021-09-24 | 安徽知陉智能科技有限公司 | 基于训练深度脉冲神经网络的梯度函数学习框架替换方法 |
CN113435577B (zh) * | 2021-06-25 | 2023-12-26 | 安徽知陉智能科技有限公司 | 基于训练深度脉冲神经网络的梯度函数学习框架替换方法 |
CN114668408A (zh) * | 2022-05-26 | 2022-06-28 | 中科南京智能技术研究院 | 一种膜电位数据生成方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010123072A (ja) | パルスニューロンモデルのためのバックプロパゲーション学習法 | |
Andersson et al. | Deep convolutional networks in system identification | |
KR102616351B1 (ko) | 지식 브리지를 이용한 학생 교사 전송 학습 네트워크를 위한 장치 및 방법 | |
KR102154676B1 (ko) | 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 | |
Hughes et al. | Recurrent neural networks for voice activity detection | |
CN104538028B (zh) | 一种基于深度长短期记忆循环神经网络的连续语音识别方法 | |
CN103049792B (zh) | 深层神经网络的辨别预训练 | |
CN108292305A (zh) | 用于处理语句的方法 | |
WO2021061555A1 (en) | Contrastive pre-training for language tasks | |
CN108269569A (zh) | 语音识别方法和设备 | |
CN107293288A (zh) | 一种残差长短期记忆循环神经网络的声学模型建模方法 | |
CN109036412A (zh) | 语音唤醒方法和*** | |
CN107871496A (zh) | 语音识别方法和装置 | |
CN106203628A (zh) | 一种增强深度学习算法鲁棒性的优化方法和*** | |
Nugaliyadde et al. | Language modeling through Long-Term memory network | |
CN114861980A (zh) | 一种基于bp-lstm模型的碳预测方法 | |
CN113821724A (zh) | 一种基于时间间隔增强的图神经网络推荐方法 | |
CN113269277A (zh) | 基于Transformer编码器和多头多模态注意力的连续维度情感识别方法 | |
WO2020241009A1 (ja) | 予測装置、学習装置、予測方法、及びプログラム | |
Kavitha et al. | Speech Emotion Recognition Using Different Activation Function | |
JP2021144659A (ja) | 計算機、計算方法及びプログラム | |
KR20200063318A (ko) | 시간에 기초한 예측 정보를 생성하기 위한 장치 및 방법 | |
KR20180019347A (ko) | 심층 신경망 기반의 음성인식 시스템 | |
JPH02296298A (ja) | パターン認識方法および標準パターン学習方法 | |
US20210133537A1 (en) | Translation method and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120207 |