JP2010123072A - パルスニューロンモデルのためのバックプロパゲーション学習法 - Google Patents

パルスニューロンモデルのためのバックプロパゲーション学習法 Download PDF

Info

Publication number
JP2010123072A
JP2010123072A JP2008298487A JP2008298487A JP2010123072A JP 2010123072 A JP2010123072 A JP 2010123072A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2010123072 A JP2010123072 A JP 2010123072A
Authority
JP
Japan
Prior art keywords
neuron model
output
pulse
layer
pulse neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008298487A
Other languages
English (en)
Inventor
Akira Iwata
彰 岩田
Susumu Kuroyanagi
奨 黒柳
Kaname Iwasa
要 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Original Assignee
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Institute of Technology NUC filed Critical Nagoya Institute of Technology NUC
Priority to JP2008298487A priority Critical patent/JP2010123072A/ja
Publication of JP2010123072A publication Critical patent/JP2010123072A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供する。
【解決手段】パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。パルスニューロンモデルの双対性を利用して教師信号を生成することにより、誤差関数を微分する計算が必要でなくなり、階層型パルスニューラルネットワークに適用可能となる。
【選択図】図3

Description

本発明は、ニューラルネットワークのためのバックプロパゲーション学習方法に関し、特に、パルスニューロンモデルにより構築されたニューラルネットワーク(以下、「パルスニューラルネットワーク」という。)に適したバックプロパゲーション学習法に関する。
ニューラルネットワークで一般的な非線形問題を解くためには、入力層と出力層との間に中間層を有する3階層以上の階層型ニューラルネットワークにする必要があり、階層型ニューラルネットワークの学習法としてはバックプロパゲーション法(誤差逆伝播法)が知られている。
また、パルスニューラルネットワークのための教師あり学習法として、下記非特許文献1に記載された手法がある。
さらに、ディジタルパーセプトロンのための双対性を利用したバックプロパゲーション法として、下記非特許文献2に記載された手法がある。
なお、下記非特許文献3には、パルスニューロンモデルのハードウェア化手法が記載されている。
黒柳奨、岩田彰、「パルスニューロンモデルのための教師あり学習則」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1998年3月、NC97−151、p.95−102 山田 樹一、黒柳奨、岩田彰、「ニューロンモデルに存在する双対性を利用したニューラルネットワークのための教師あり学習手法」、電子情報通信学会論文誌(D−II)、2004年2月、第J87−D−II巻、第2号、p.399−406 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128
しかし、一般的に用いられているバックプロパゲーション法では、誤差を最小化することを目的とするため、誤差関数を微分する計算を行う。しかし、パルスニューロンモデルでは出力関数が微分不可能であるために、この計算ができず、一般的なバックプロパゲーション法を適用できないという問題があった。
また、上記非特許文献1の手法は、入力層と出力層の2階層構造のみ考慮したものであり、階層型パルスニューラルネットワーク(3階層以上のパルスニューラルネットワーク)には適用できないという問題があった。
さらに、上記非特許文献2の手法は、ディジタルパーセプトロンのための手法であり、入出力がパルスである階層型パルスニューラルネットワークに対する適用はなされていなかった。
この発明は、上述した問題を解決するものであり、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供することを目的とする。
本発明のパルスニューロンモデルのためのバックプロパゲーション学習法は、パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とする。
これによれば、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供できる。
ここで、請求項2記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記[数12]により計算される教師信号Tにより前記中間層のj番目のパルスニューロンモデルが学習を行うこととできる。
Figure 2010123072
また、請求項3記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、出力層のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数13]のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。
Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
(2)ΔT<−θlearnの場合、T=0とする。
(3)ΔT>θlearnの場合、T=1とする。
また、請求項4記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、出力層のk番目のパルスニューロンモデルの時間tにおける出力信号をO、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をT 、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数15]のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。
Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
(2)ΔT<−θlearnの場合、T=0とする。
(3)ΔT>θlearnの場合、T=1とする。
本発明の学習・識別装置は、上記いずれかのパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする。
本発明の演算回路は、請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tを生成することを特徴とする。
例えば、上記演算回路は、kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号T と前記出力信号Oと前記結合重みw kj(t)とから、T =0かつO=0のとき0を、T =0かつO=1のとき−w kj(t)を、T =1かつO=0のときw kj(t)を、T =1かつO=1のとき0を出力するK個の論理回路と、前記各論理回路からの出力を加算する加算器と、前記加算器からの出力に対してビットシフトを行って前記学習係数αの乗算を行い、誤差ΔTを算出するシフト演算器と、前記シフト演算器から出力された誤差ΔTと中間層からの出力H(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tを出力する比較器と、を備えるものとすることができる。
本発明のバックプロパゲーション学習法によれば、誤差関数を微分する計算が必要でなく、階層型パルスニューラルネットワークに適用可能である。
〔第1実施形態〕
まず、第1実施形態に係るバックプロパゲーション学習法である提案手法1について説明する。提案手法1では、図1に示すような従来のパルスニューロンモデル(上記非特許文献1参照)に対して、図2に示すように、出力電位p(t)を計算・保持する部分と、教師電位p(t)を計算・保持する部分と、固定値で上昇する入力電位(入力ポテンシャル)Inp(t)を計算・保持する部分とを構成要素として加えた新規なパルスニューロンモデルを用いる。
図2に示すパルスニューロンモデルでは、図1に示すパルスニューロンモデルと同様に、入力パルスIN(t)がk番目のシナプスに到着したとき、局所膜電位p(t)が結合重みwの値だけ増加する。局所膜電位p(t)は、時間の経過とともに次式[数1]に従って減少する。そして、パルスニューロンモデルの内部電位I(t)は次式[数2]によって計算され、出力o(t)は、次式[数3]によって計算される。なお、τは時定数、nは入力の総数、θは閾値、Hは単位ステップ関数(unit step function)であり、tは時間でΔt=1とする。
Figure 2010123072
Figure 2010123072
Figure 2010123072
また、図2に示すパルスニューロンモデルにおいては、入力パルス「1」がk番目のシナプスに到達すると、入力ポテンシャルInp(t)は固定重み1だけ増加し、時定数τで減衰する(下記[数9]参照)。出力電位p(t)は、パルスニューロンモデルが発火したとき固定重み1だけ増加し、時定数τで上記[数1]と同様に減衰する。教師電位p(t)は、教師信号「1」を受け取ったとき固定重みwだけ増加し、時定数τで上記[数1]と同様に減衰する。
提案手法1では、以上のように構成されたパルスニューロンモデルの双対性を利用する。ニューロンモデルの双対性については上記非特許文献2に記載されているが、ここで簡単に説明すると、一般的なニューロンモデルの出力は次式[数4]で計算される。
Figure 2010123072
なお、上記[数4]及び以下の[数5]〜[数7]において、wは結合重みベクトル、iは入力ベクトル、θは結合重み以外のパラメタのベクトル、fは出力関数である。出力が結合重みベクトルと入力ベクトルの内積で決まるニューロンモデルは双対性を有しており、その出力は、次式[数5]に示すように、結合重みベクトルwと入力ベクトルiの値を入れ替えた双対ニューロンモデルの出力と同じである。
Figure 2010123072
パルスニューロンモデルも、上記式[数1]〜[数3]から分かるように、双対性を有し、結合重みwと入力INとは交換可能である。
次式[数6]は、結合重みベクトルの更新に用いられる関数であるが、次式[数7]に示すように、ニューロンモデルの双対性により入力ベクトルの更新にも同じ関数が使用できる。なお、wnewは更新後の結合重みベクトルであり、inewは更新後の入力ベクトルである。
Figure 2010123072
Figure 2010123072
双対性を有するニューロンモデルに対して、ある学習則に基づく関数gによって、望ましい結合重みが求められるとき、関数gの引数の結合重みベクトルと入力ベクトルとを入れ替えることで、望ましい入力を求めることができる。ニューロンモデルに対する望ましい入力は、その前段のニューロンモデルの望ましい出力、すなわち、教師信号となる。
以上のことを踏まえて、提案手法1について説明する。以下の説明において、H(t)は中間層のj番目のパルスニューロンモデルの出力、Inp(t)は中間層のj番目のパルスニューロンモデルからの入力による入力ポテンシャル、p (t)は出力層(すなわち、前記中間層を前段としたときの後段の層)のk番目のパルスニューロンモデルの出力電位、p (t)は出力層のk番目のパルスニューロンモデルの教師電位、w kj(t)は中間層のj番目のパルスニューロンモデルと出力層のk番目のパルスニューロンモデルとの間の結合重み、αは学習係数である。
パルスニューロンモデルの重みの更新は、上記非特許文献1の記載からも分かるように、次式[数8]で表せる。
Figure 2010123072
Inp(t)は、次式[数9]で更新される。
Figure 2010123072
τを定数とすると、βも定数となる。また、Aは経過時間である。[数9]により、[数8]は次式[数10]のように書き換えられる。
Figure 2010123072
ここで、Hは中間層のj番目のパルスニューロンモデルから出力層のk番目のパルスニューロンモデルへの入力に相当するので、パルスニューロンモデルの双対性から、w kjとHとを入れ替えることにより、中間層のj番目のパルスニューロンモデルから出力層のk番目のパルスニューロンモデルへの望ましい入力Tkjが次式[数11]で求められることとなる。
Figure 2010123072
そして、望ましい入力Tkjをk=1〜K(K:出力層のパルスニューロンモデルの総数)について集めたものが、中間層のj番目のパルスニューロンモデルの望ましい出力、すなわち、中間層のj番目のパルスニューロンモデルに対する教師信号Tとなることから、中間層のj番目のパルスニューロンモデルに対する教師信号Tは次式[数12]で計算できる。
Figure 2010123072
提案手法1は、上記[数12]により計算される教師信号Tにより、中間層のj番目のパルスニューロンモデルを学習させる。すなわち、提案手法1では、前段の層の出力(すなわち、後段の層の入力)H、後段の層の出力電位p 、後段の層の教師電位p 、及び、前段の層と後段の層との間の結合重みw kjから、前段の層の教師信号を算出して、その教師信号により前段の層を学習させる。
かかる提案手法1を用いて学習を行い、入力データを識別する学習・識別装置の構成例を図3に示す。図3は、入力層1、中間層2、及び、出力層3を有した3階層のパルスニューラルネットワークの例であるが、中間層2のパルスニューロンモデルの数Jと同じ数の教師信号生成素子5を有する教師信号生成素子層4を備えている。出力層3のパルスニューロンモデルの数はKとする。中間層2からの出力H、出力層3からの出力O、及び、出力層3に与えられる教師信号Tは、各教師信号生成素子5にも与える。なお、中間層2にはバイアス入力が与えられる。また、出力層の各パルスニューロンモデルの重み(結合重み)は、対応する教師信号生成素子5にコピーされる。入力層1の各パルスニューロンモデルは図1に示すパルスニューロンモデルであり、中間層2及び出力層3の各パルスニューロンモデルは図2に示すパルスニューロンモデルである。なお、入力層1は、入力パルスをそのままのパターンで中間層2に与えるように構成されている。
そして、この学習・識別装置の学習時の動作について、図4に基づいて説明すると、この学習・識別装置は、処理開始後、まず、入力層1、中間層2、及び、出力層3の各パルスニューロンモデルを初期化する(ステップS101)。次に、出力層3の各重みw kj(t)(k=1〜K)を、j番目の教師信号生成素子5にコピーする(S102)。なお、j=1〜Jである。
そして、学習を開始し(S103)、入力層1、中間層2、及び、出力層3の各素子(パルスニューロンモデル)が従来通りの前向き演算を行う(S104)。出力層3の各素子は、外部から与えられた教師信号T (t)を元に重みw kj(t)を更新する(S105)。一方、各教師信号生成素子5は、コピーしておいた重みw kj(t)と、出力層3からの出力O(t)と、教師信号T (t)とから上記[数12]に従って教師信号T(t)を計算し出力する(S106)。なお、学習係数αは、予め各教師信号生成素子5に与えられているものとする。ステップS106で求められた教師信号T(t)は、中間層2のj番目の素子に与えられ、中間層2の各素子はこの教師信号T(t)に基づいて重みを更新する(S107)。ステップS105〜107を終えると、ステップS102に戻って、以下、所定の学習回数、ステップS102〜107を繰り返す。
なお、図3に示す構成例、及び、図4に示す動作フローは、後述する提案手法2及び提案手法3にも適用可能であるが、後述するように、提案手法2では下記[数13]、提案手法3では下記[数15]に従って、誤差ΔTを計算し、下記ルール(1)〜(3)に従って教師信号T(t)を出力する。
提案手法1によれば、誤差関数を微分する一般的なバックプロパゲーション法とは全く異なった手法で、階層型パルスニューラルネットワークを学習させることができる。
〔第2実施形態〕
次に、提案手法1を改良した第2実施形態に係る提案手法2について説明する。上記[数12]では、教師信号Tは実数値となってしまい、そのままではパルスニューロンモデルによる扱いが容易とは言えない。そこで、β≡exp(−1/τ)<1であり、a=0の場合以外は、βは十分小さく、β kj(t−a)は無視できるとして、[数12]を次式[数13]のように変換する。
Figure 2010123072
そして、ΔTと学習のための閾値θlearn(≧0)を用いて、次の(1)〜(3)のように教師信号Tを出力する。
(1)|ΔT|≦θlearnの場合、H(t)は望ましい出力Tに一致しているとして、T=H(t)とし、学習を続ける。
(2)ΔT<−θlearnの場合、Hは望ましくない出力1であるので、T=0とし、中間層のj番目のパルスニューロンモデルが1を出力しないように、結合重みを更新する。
(3)ΔT>θlearnの場合、Hは出力1であるべきなので、T=1とし、中間層のj番目のパルスニューロンモデルが1を出力するように、結合重みを更新する。
このように、提案手法2では、上記[数13]に従ってΔTを算出し、上記(1)〜(3)のルールに従ってTを定めて学習を行う。上記(1)〜(3)のルールによれば、教師信号Tがパルス(0または1)となるので、パルスニューロンモデルによる扱いが容易となり、ハードウェア化も容易となる。提案手法2の実験例を以下に示す。
〈実験1〉
実験1では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、簡単な非線形問題としてXOR(排他的論理和)を学習し識別させた。実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりである。なお、入力層の1素子は、常に1を中間層の素子に入力するバイアス入力のための素子である。
Figure 2010123072
そして、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTを与えて、提案手法2により学習を行った。図5において、X軸(横軸)は時間であり、Y軸(縦軸)はパルスニューロンモデルの番号(ニューロン番号)である。色の濃淡はパルス頻度を表し、白い部分は0(パルスが無い状態)を表し、色が濃いほどパルス頻度が高く、黒い部分は1(常にパルスがある状態)を表す。実験1では、XOR問題を学習するので、(ニューロン番号1の素子に与えられる信号,ニューロン番号2の素子に与えられる信号)と表記したとき、図5に示すように、入力が(0,0)の場合は教師信号(0,1)、入力が(1,0)の場合は教師信号(1,0)、入力が(0,1)の場合は教師信号(1,0)、入力が(1,1)の場合は教師信号(0,1)を与える。
かかる入力及び教師信号を用いて学習を行った後、図5と同じ入力パルスを入力し識別させたときの結果を図6に示す。図6は上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表す。また、図6においては、図3と同様に、X軸は時間であり、Y軸はニューロン番号である。図6中ニューロン番号は省略されているが、出力層の出力パルス列、教師パルス列は、それぞれ下から順に番号1、2であり、中間層の出力パルス列、教師パルス列は、それぞれ、下から順に番号1、2、3、4である。また、色の濃淡は図5と同様にパルス頻度を表す。図6から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。
〈実験2〉
実験2では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、目覚まし時計のアラーム音(以下、「アラーム」という。)、インターフォンの呼び出し音(以下、「インターフォン」という。)、笛吹きケトルの沸騰音(以下、「ケトル」という。)、電話のベル音(以下、「電話」という。)、人の声、及び、ホワイトノイズの6種の音を周波数帯域毎のパルス列に変換した音データを入力して、提案手法2により学習させた。実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりである。なお、入力層の1素子は、バイアス入力のための素子である。出力層は、上記6種の音を学習する6つの素子を有する。
Figure 2010123072
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表3に示す。
Figure 2010123072
表3の数字は、左から順に、アラーム、インターフォン、ケトル、電話、人の声、ホワイトノイズを学習した素子の認識率(=出力層における全発火数に対する当該素子の発火数)を表す。例えば、入力信号がアラームであるとき、アラームを学習した素子の認識率は100%であり、他の素子の認識率は0%である。表3から、学習の結果、6種の音を略誤り無く認識できていることが分かる。
提案手法2によれば、学習の結果略正しい認識を行えるとともに、教師信号Tをパルスにすることができるので、パルスニューロンモデルによる扱いが容易であり、階層型パルスニューラルネットワークに好適である。
〔第3実施形態〕
次に、提案手法2を、階層型パルスニューラルネットワークのハードウェア化に好適なものとした第3実施形態に係る提案手法3について説明する。
提案手法2では、ΔTの計算がデジタル回路で実現するのに適していない。そこで、[数13]の出力電位p (t)、教師電位p (t)を、それぞれ、時間tにおける出力層のk番目のパルスニューロンモデルの出力信号O、時間tにおける出力層のk番目のパルスニューロンモデルへの教師信号T (Tとも表記。)に置き換えて、[数13]を次式[数14]のように変換する。O、T はいずれもパルス(0又は1)である。
Figure 2010123072
そして、次式[数15]のようにΔTを定義し、学習のための閾値θlearnを用いて、上記(1)〜(3)のルールに従って教師信号Tを出力する。
Figure 2010123072
提案手法3は、上記[数15]を用いてΔTを計算し、閾値θlearnを用いて上記(1)〜(3)のように教師信号Tを中間層のj番目のパルスニューロンモデルに与えることを特徴とする。提案手法3を用いた実験例を以下に示す。
〈実験3〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験1と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりであり、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTを与えて、提案手法3により学習を行った。
学習後、図5と同じ入力パルスを入力し識別させた結果を図7に示す。図7は、図6と同様に、上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表し、X軸は時間、Y軸はニューロン番号であるが、ニューロン番号は省略されている。また、色の濃淡は図5と同様にパルス頻度を表す。図7から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。
〈実験4〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験2と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりであり、実験2で用いたアラーム、インターフォン、ケトル、電話、人の声、及び、ホワイトノイズの6種の音から生成された音データを入力して、提案手法3により学習を行った。
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表4に示す。
Figure 2010123072
表4の数字は、左から順に、アラーム、インターフォン、ケトル、電話、人の声、ホワイトノイズを学習した素子の認識率を表す。表4から、学習の結果、6種の音を略誤り無く認識できていることが分かる。
提案手法3によれば、学習の結果略正しい認識を行え、教師信号Tをパルスにすることができるとともに、ΔTの計算がデジタル回路で容易に実現できるため、階層型パルスニューラルネットワークのハードウェア化に好適である。
例えば、教師信号生成素子5は、図8に示すようにデジタル回路で実現可能である。図8において、符号10は、表5に示すように、教師パルスT と出力パルスOと重みw kj(t)とから0、w kj(t)または−w kj(t)を出力する論理回路であり、符号11は各論理回路10からの出力を加算する加算器であり、符号12は加算器11からの出力に対してαの乗算を実現するためのビットシフトを行うシフト演算器であり、符号13はシフト演算器12からの出力すなわちΔTと中間層からの出力Hとを比較して、上記ルール(1)〜(3)に従って、教師信号Tを出力する比較器である。なお、比較器13は、学習閾値θlearnを保有し又は入力として受け取る。
Figure 2010123072
また、図1、2に示すようなパルスニューロンモデルも、上記非特許文献3に記載されているように、デジタル回路で実現可能である。したがって、提案手法3によって学習し入力データを識別する学習・識別装置は、デジタル回路で実現可能である。
以上述べたように、提案手法3はデジタル回路において容易に実現可能であり、FPGA(Field Programmable Gate Arrays)上に実装することも可能である。すなわち、提案手法1〜3はいずれも一般のコンピュータ上でソフトウェアにより実現可能であるが、処理の高速化のためにはハードウェア化が望ましく、提案手法3は特にハードウェア化に好適である。
なお、提案手法1〜3は、勿論、上記出力層を更に中間層とするような、中間層を複数有した4階層以上の階層型パルスニューラルネットワークにも適用可能である。
従来のパルスニューロンモデルの構成図である。 本発明の実施形態に係るパルスニューロンモデルの構成図である。 同実施形態に係る学習・識別装置の構成図である。 同実施形態に係る学習・識別装置の学習時の動作を示すフローチャートである。 実験1及び実験3における入力層の入力パルス列及び出力層の教師パルス列を示す図である。 実験1における中間層の出力パルス列及び教師パルス列、及び、出力層の出力パルス列及び教師パルス列を示す図である。 実験3における中間層の出力パルス列及び教師パルス列、及び、出力層の出力パルス列及び教師パルス列を示す図である。 教師信号生成素子をデジタル回路化した例である。
符号の説明
1…入力層
2…中間層
3…出力層
4…教師電位生成素子層
5…教師電位生成素子
10…論理回路
11…加算器
12…シフト演算器
13…比較器

Claims (7)

  1. パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。
  2. 中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記式により計算される教師信号Tにより前記中間層のj番目のパルスニューロンモデルが学習を行うことを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
    Figure 2010123072
  3. 中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
    Figure 2010123072
    (1)|ΔT|≦θlearnの場合、T=H(t)とする。
    (2)ΔT<−θlearnの場合、T=0とする。
    (3)ΔT>θlearnの場合、T=1とする。
  4. 中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの時間tにおける出力信号をO、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をT 、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
    Figure 2010123072
    (1)|ΔT|≦θlearnの場合、T=H(t)とする。
    (2)ΔT<−θlearnの場合、T=0とする。
    (3)ΔT>θlearnの場合、T=1とする。
  5. 請求項1〜4のいずれかに記載のパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする学習・識別装置。
  6. 請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tを生成することを特徴とする演算回路。
  7. kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号T と前記出力信号Oと前記結合重みw kj(t)とから、T =0かつO=0のとき0を、T =0かつO=1のとき−w kj(t)を、T =1かつO=0のときw kj(t)を、T =1かつO=1のとき0を出力するK個の論理回路と、
    前記各論理回路からの出力を加算する加算器と、
    前記加算器からの出力に対してビットシフトを行って前記学習係数αの乗算を行い、誤差ΔTを算出するシフト演算器と、
    前記シフト演算器から出力された誤差ΔTと中間層からの出力H(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tを出力する比較器と、
    を備えることを特徴とする請求項6記載の演算回路。
JP2008298487A 2008-11-21 2008-11-21 パルスニューロンモデルのためのバックプロパゲーション学習法 Withdrawn JP2010123072A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008298487A JP2010123072A (ja) 2008-11-21 2008-11-21 パルスニューロンモデルのためのバックプロパゲーション学習法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008298487A JP2010123072A (ja) 2008-11-21 2008-11-21 パルスニューロンモデルのためのバックプロパゲーション学習法

Publications (1)

Publication Number Publication Date
JP2010123072A true JP2010123072A (ja) 2010-06-03

Family

ID=42324338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008298487A Withdrawn JP2010123072A (ja) 2008-11-21 2008-11-21 パルスニューロンモデルのためのバックプロパゲーション学習法

Country Status (1)

Country Link
JP (1) JP2010123072A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (zh) * 2010-07-23 2010-12-08 华南理工大学 一种基于双目三维视觉的深度测量方法
JP2017538137A (ja) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 音声転写用のシステム及び方法
DE102017129849A1 (de) 2016-12-28 2018-06-28 Toyo Tire & Rubber Co., Ltd. Verfahren zum Herstellen eines nassen Kautschukmasterbatches
CN111699496A (zh) * 2018-03-14 2020-09-22 欧姆龙株式会社 神经网络型图像处理装置
CN112541578A (zh) * 2020-12-23 2021-03-23 中国人民解放军总医院 视网膜神经网络模型
CN113435577A (zh) * 2021-06-25 2021-09-24 安徽知陉智能科技有限公司 基于训练深度脉冲神经网络的梯度函数学习框架替换方法
CN114668408A (zh) * 2022-05-26 2022-06-28 中科南京智能技术研究院 一种膜电位数据生成方法及***
WO2022145232A1 (ja) * 2021-01-02 2022-07-07 天海 金 情報処理装置および情報処理方法、並びにプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (zh) * 2010-07-23 2010-12-08 华南理工大学 一种基于双目三维视觉的深度测量方法
JP2017538137A (ja) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 音声転写用のシステム及び方法
US11562733B2 (en) 2014-12-15 2023-01-24 Baidu Usa Llc Deep learning models for speech recognition
DE102017129849A1 (de) 2016-12-28 2018-06-28 Toyo Tire & Rubber Co., Ltd. Verfahren zum Herstellen eines nassen Kautschukmasterbatches
DE102017129849B4 (de) 2016-12-28 2022-02-24 Toyo Tire & Rubber Co., Ltd. Verfahren zum Herstellen eines nassen Kautschukmasterbatches
CN111699496A (zh) * 2018-03-14 2020-09-22 欧姆龙株式会社 神经网络型图像处理装置
CN111699496B (zh) * 2018-03-14 2023-08-29 欧姆龙株式会社 神经网络型图像处理装置、外观检查装置及外观检查方法
CN112541578A (zh) * 2020-12-23 2021-03-23 中国人民解放军总医院 视网膜神经网络模型
WO2022145232A1 (ja) * 2021-01-02 2022-07-07 天海 金 情報処理装置および情報処理方法、並びにプログラム
CN113435577A (zh) * 2021-06-25 2021-09-24 安徽知陉智能科技有限公司 基于训练深度脉冲神经网络的梯度函数学习框架替换方法
CN113435577B (zh) * 2021-06-25 2023-12-26 安徽知陉智能科技有限公司 基于训练深度脉冲神经网络的梯度函数学习框架替换方法
CN114668408A (zh) * 2022-05-26 2022-06-28 中科南京智能技术研究院 一种膜电位数据生成方法及***

Similar Documents

Publication Publication Date Title
JP2010123072A (ja) パルスニューロンモデルのためのバックプロパゲーション学習法
Andersson et al. Deep convolutional networks in system identification
KR102616351B1 (ko) 지식 브리지를 이용한 학생 교사 전송 학습 네트워크를 위한 장치 및 방법
KR102154676B1 (ko) 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
Hughes et al. Recurrent neural networks for voice activity detection
CN104538028B (zh) 一种基于深度长短期记忆循环神经网络的连续语音识别方法
CN103049792B (zh) 深层神经网络的辨别预训练
CN108292305A (zh) 用于处理语句的方法
WO2021061555A1 (en) Contrastive pre-training for language tasks
CN108269569A (zh) 语音识别方法和设备
CN107293288A (zh) 一种残差长短期记忆循环神经网络的声学模型建模方法
CN109036412A (zh) 语音唤醒方法和***
CN107871496A (zh) 语音识别方法和装置
CN106203628A (zh) 一种增强深度学习算法鲁棒性的优化方法和***
Nugaliyadde et al. Language modeling through Long-Term memory network
CN114861980A (zh) 一种基于bp-lstm模型的碳预测方法
CN113821724A (zh) 一种基于时间间隔增强的图神经网络推荐方法
CN113269277A (zh) 基于Transformer编码器和多头多模态注意力的连续维度情感识别方法
WO2020241009A1 (ja) 予測装置、学習装置、予測方法、及びプログラム
Kavitha et al. Speech Emotion Recognition Using Different Activation Function
JP2021144659A (ja) 計算機、計算方法及びプログラム
KR20200063318A (ko) 시간에 기초한 예측 정보를 생성하기 위한 장치 및 방법
KR20180019347A (ko) 심층 신경망 기반의 음성인식 시스템
JPH02296298A (ja) パターン認識方法および標準パターン学習方法
US20210133537A1 (en) Translation method and apparatus therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120207