JP5002821B2 - ニューラルネットワーク装置及びその方法 - Google Patents
ニューラルネットワーク装置及びその方法 Download PDFInfo
- Publication number
- JP5002821B2 JP5002821B2 JP2008501514A JP2008501514A JP5002821B2 JP 5002821 B2 JP5002821 B2 JP 5002821B2 JP 2008501514 A JP2008501514 A JP 2008501514A JP 2008501514 A JP2008501514 A JP 2008501514A JP 5002821 B2 JP5002821 B2 JP 5002821B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- layer
- input
- output
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
ニューラルネットワークの学習は図10(d)に示すように行われる。
図11(a)はエラー(誤差)を示す。
多くの学習データ(入力と望ましい出力の組)を例示することによってニューラルネットワークの重みを決定する方法がある。最も多用されているのは誤差逆伝播と呼ばれる、最急降下法に基づく学習方法である。
図11(b)(c)は誤差逆伝播の構造説明図である。
出力層層のj番目のユニットへの総入力は、
ニューラルネットワークの特徴を挙げると以下のようになる。
(1) 学習能力…提示される入出力サンプルに基づいて必要な機能を自動形成することができる。
(2) 非線形性…学習により、定式化が困難な複雑な写像関係でさえ容易に構築することができる。
(3) 並列処理…入力された信号は結合を通して様々なニューロンへと送られ、並列的に処理される。
第1の学習収束判断部は、より具体的には、今まで求めてきた比較結果の誤差の変動をみており、この変動が略なくなった場合に学習が収束したと判断する。
また、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及 び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入 力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて 出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新 することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって 、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、 入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達 する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを 備え、第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断し ている場合に学習を終了するものである。
また、本発明に係るニューラルネットワーク装置は、ノードを有する入力層、隠れ層及 び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入 力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて 出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新 することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって 、前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、 入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達 する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを 備え、第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が 学習の収束を判断し、第2の学習収束判断部が学習が収束したと判断した場合に、学習を 終了するものである。
また、本発明に係るニューラルネットワーク装置は必要に応じて、第2の学習収束判断部は、前記学習収束条件に該当しない場合、重み係数を初期化して改めて学習し直すものである。
このように本発明によれば、重み係数を初期化した場合であっても依然の重み係数と同様であれば誤差逆伝播の学習を再度行った場合に同様の局所解に陥る可能性が高く、その場合に、再度初期化することで無駄な学習を回避し、効率的に大域的最適解を求めることができるという効果を有する。
また、本発明に係る階層的ニューラルネットワーク装置の誤差逆伝播学習方法は、入力 データを入力層に入力して出力層から出力された出力データと入力データに対応する予め 用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノー ド間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層 的ニューラルネットワーク装置の誤差逆伝播学習方法であって、入力データと入力層及び 隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当 する場合に学習が収束したと判断するものである。
また、本発明に係る誤差逆伝播学習プログラムは、ノードを有する入力層、隠れ層及び 出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力 データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出 力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新す ることで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤 差逆伝播学習プログラムであって、入力データと入力層及び隠れ層のノード間の重み係数 との相関係数が所定閾値以上である場合に学習が収束したと判断する第2の学習収束判断 部としてコンピュータを機能させるものである。
また、本発明に係る誤差逆伝播学習プログラムは、ノードを有する入力層、隠れ層及び 出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力 データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出 力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新す ることで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤 差逆伝播学習プログラムであって、入力データと入力層及び隠れ層のノード間の重み係数 との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと 判断する第2の学習収束判断部としてコンピュータを機能させるものである。
このように本発明は、方法又はプログラムとしても把握することができる。
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。
20 ニューラルネットワーク機構部
30 出力部
40 誤差逆伝播機構
41 誤差算出部
42 重み係数反映部
43 誤差収束判定部
50 相関係数機構
51 相関係数算出部
52 相関係数条件判定部
53 初期化部
100 コンピュータ
111 CPU
112 RAM
113 ROM
114 フラッシュメモリ
115 HD
116 LANカード
117 マウス
118 キーボード
119 ビデオカード
119a ディスプレイ
120 サウンドカード
120a スピーカ
121 ドライブ
(1)ブロック構成
図1は本実施形態に係るニューラルネットワーク装置のブロック構成図である。
本実施形態に係るニューラルネットワーク装置は、処理対象の入力データを取り込む入力部10と、取り込んだ入力データを処理して出力データを生成するニューラルネットワーク機構部20と、生成した出力データを送り出す出力部30と、学習時にニューラルネットワーク機構部20により生成された出力データと教師データの出力データから誤差を求め、求めた誤差から誤差が収束しているか否かを判断し、収束していないと判断した場合には誤差逆伝播を行い重み係数を更新する誤差逆伝播機構40と、学習時に入力データと入力層と隠れ層との隠れ係数との相関係数を求め、前記誤差逆伝播機構40が収束していると判断した場合に、直近の相関係数が所定閾値と比べて低いか否か、及び、相関係数が増大傾向であって飽和に達するか否かを判断し、直近の相関係数が所定閾値と比べて低い場合、相関係数が増大傾向ではない場合、または、相関係数が増大傾向でも飽和に達しない場合、ニューラルネットワーク機構部20を初期化する相関係数機構50とを備える構成である。
図2は本実施形態に係るニューラルネットワーク装置を構築されているコンピュータのハードウェア構成図である。
ニューラルネットワークが構築されているコンピュータ100は、CPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、フラッシュメモリ(Flash memory)114、外部記憶装置であるHD(Hard disk)115、LAN(Local Area Network)カード116、マウス117、キーボード118、ビデオカード119、このビデオカード119と電気的に接続する表示装置であるディスプレイ119a、サウンドカード120、このサウンドカード120と電気的に接続する音出力装置であるスピーカ120a及びフレキシブルディスク、CD−ROM、DVD−ROM等の記憶媒体を読み書きするドライブ121からなる。なお、所謂当業者であれば、若干のハードウェアの構成要素の変更をすることができ、また、複数コンピュータに対して一つのニューラルネットワークを構築することができる。コンピュータ毎に全てではなく一部の一又は複数のモジュールを構築して負荷分散を図ることができる。勿論、グリッドコンピュータシステム上にニューラルネットワークを構築することもできる。
図3は本実施形態に係るニューラルネットワーク装置の学習時の動作フローチャートである。
入力部10が入力データ及び出力データからなる教師データを取り込み、取り込んだ入力データがニューラルネットワーク機構20で処理され、出力部10が生成された出力データを出力する。誤差算出部41は出力データと教師データの出力データとから誤差を算出する(ステップ201)。重み係数反映部42は算出した誤差を用いてニューラルネットワークの重み係数を更新する(ステップ202)。相関係数算出部51は入力層と隠れ層の重み係数と入力データとから相関係数を算出する(ステップ211)。誤差収束判定部43は誤差算出部41が求めてきた誤差を用いて誤差が収束しているか否かを判断する(ステップ221)。ステップ221において収束していないと判断した場合にはステップ100に戻る。ステップ221において収束していると判断した場合には、相関係数条件判定部52は相関係数算出部51が求めてきた相関係数を用いて直近の相関係数が所定閾値と比べて低いか否かを判断する(ステップ231)。ステップ231において直近の相関係数が低いと判断した場合には、相関係数が増大傾向であって飽和に達するか否かを判断する(ステップ232)。ステップ231において相関係数が低くないと判断した場合、又は、ステップ232において相関係数が増大傾向であって飽和に達すると判断した場合、大域的最適解が求まったとしてニューラルネットワークの学習を終了する。ステップ232において相関係数が増大傾向であって飽和に達してはいないと判断した場合には、局所解が求まったとしてニューラルネットワーク機構20の初期値を再設定し(ステップ241)、ステップ100に戻る。
このように本実施形態に係るニューラルネットワーク装置によれば、ニューラルネットワークによって生成された出力データと教師データの出力データの誤差を求めて誤差逆伝播させて重み係数を更新させ、求めた誤差を蓄積して誤差の変動から誤差の収束を判断し、誤差が収束している場合に継続して求めてきた相関係数の変動が所定条件を満たすか否かを判断し、ここで所定条件とは相関係数が所定閾値より小さくない、及び、相関係数が増加傾向であって飽和に達していることであり、この条件を満たす場合には大域的最適解が求まったとして学習を終了し、一方、条件を満たさない場合には局所解が求まったとしてニューラルネットワークを初期化して再度学習するので、最急降下法を適用して迅速に学習をさせることができ、また、この最急降下法で学習終了とされたニューラルネットワークが実際に大域的最適解が求まっているか否かを判断しており、学習終了時に局所解ではなく大域的最適解が求まった状態にすることができる。
[誤差による判断と相関係数による判断]
前記第1の実施形態に係るニューラルネットワーク装置においては、出力データと教師データの出力データとの誤差の変動をまず判断し、その後に、相関係数の判断を実行しているが、相関係数の判断をまず実行した後に誤差の変動を判断することもできる。ただし、出力データと教師データの出力データとの誤差は、誤差逆伝播学習においては学習のために必ず導出する必要がある値であるために誤差の変動をまずもって判断する方が望ましい。また、出力データと教師データの出力データとの誤差の変動から学習が収束したと判断した場合には少なくとも局所解は求まっており、一方、相関係数から学習が収束したと判断した場合には局所解すら求まっていない可能性もあり、まずもって出力データと教師データの出力データとの誤差の変動から学習の収束を判断する方が望ましい。
前記第1の実施形態に係るニューラルネットワーク装置においては、例えば、初期化を乱数により実施するのであるが、この乱数による初期化が初期化前の重み係数と略同様となる可能性もあり、初期化後も略同じ重み係数となった場合には再度同じ局所解に陥る可能性が高く、無駄な学習を実施するのを未然に防止すべく、初期化した後の重み係数と初期化前の重み係数の相関係数が所定閾値以上であれば再度初期化する構成にすることもできる。
(b)または図6(b)がバンド5の熱赤外画像であり、図5(c)または図6(c)がMCSSTによる推定実測値である。図5が2002年5月20日17時11分のものであり、図6が2004年11月30日16時45分のものである。
Claims (12)
- ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を備える誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断している場合に学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上であるという学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が学習の収束を判断し、
第2の学習収束判断部が学習が収束したと判断した場合に、学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部を備える誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部と第2の学習収束判断部が共に学習が収束していると判断している場合に学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置であって、
前記学習の比較結果の誤差に基づいて学習の収束を判断する第1の学習収束判断部と、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部とを備え、
第1の学習収束判断部が学習が収束したと判断した後に、第2の学習収束判断部が学習の収束を判断し、
第2の学習収束判断部が学習が収束したと判断した場合に、学習を終了する誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - 第2の学習収束判断部は、前記学習収束条件に該当しない場合、重み係数を初期化して改めて学習し直す
前記請求項1ないし6のいずれかに記載の誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - 前記重み係数を初期化する場合には、初期化した重み係数と初期化する前の重み係数の相関係数を求め、この相関係数が所定閾値以上である場合には再度重み係数を初期化する
前記請求項7に記載の誤差逆伝播学習に基づく階層的ニューラルネットワーク装置。 - 入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置の誤差逆伝播学習方法であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上である場合に学習が収束したと判断する階層的ニューラルネットワーク装置の誤差逆伝播学習方法。 - 入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置の誤差逆伝播学習方法であって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する階層的ニューラルネットワーク装置の誤差逆伝播学習方法。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤差逆伝播学習プログラムであって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が所定閾値以上である場合に学習が収束したと判断する第2の学習収束判断部としてコンピュータを機能させる誤差逆伝播学習プログラム。 - ノードを有する入力層、隠れ層及び出力層からなり、入力データを入力層に入力して出力層から出力された出力データと入力データに対応する予め用意された教師データとを比較し、比較結果となる誤差を用いて出力層及び隠れ層のノード間の重み係数と隠れ層及び入力層のノード間の重み係数を更新することで学習する階層的ニューラルネットワーク装置としてコンピュータを機能させる誤差逆伝播学習プログラムであって、
入力データと入力層及び隠れ層のノード間の重み係数との相関係数が増大傾向が飽和に達する学習収束条件に該当する場合に学習が収束したと判断する第2の学習収束判断部としてコンピュータを機能させる誤差逆伝播学習プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2006/303147 WO2007096954A1 (ja) | 2006-02-22 | 2006-02-22 | ニューラルネットワーク装置及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007096954A1 JPWO2007096954A1 (ja) | 2009-07-09 |
JP5002821B2 true JP5002821B2 (ja) | 2012-08-15 |
Family
ID=38437016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008501514A Active JP5002821B2 (ja) | 2006-02-22 | 2006-02-22 | ニューラルネットワーク装置及びその方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5002821B2 (ja) |
WO (1) | WO2007096954A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104854602B (zh) | 2012-12-03 | 2017-04-19 | Hrl实验室有限责任公司 | 一种神经网络单元、以及相关***和方法 |
CN111782359B (zh) * | 2020-06-23 | 2022-03-11 | 平安科技(深圳)有限公司 | 分布式计算***任务分配方法及相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04319760A (ja) * | 1991-04-19 | 1992-11-10 | Meidensha Corp | 階層結合型ニューロコンピュータ |
JPH05197821A (ja) * | 1991-11-11 | 1993-08-06 | Omron Corp | 階層型ニューラルネットの最適化方法及び装置 |
JPH10283334A (ja) * | 1997-04-10 | 1998-10-23 | Fuji Electric Co Ltd | ニューラルネットワークの入力層最適化方法 |
-
2006
- 2006-02-22 WO PCT/JP2006/303147 patent/WO2007096954A1/ja active Application Filing
- 2006-02-22 JP JP2008501514A patent/JP5002821B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04319760A (ja) * | 1991-04-19 | 1992-11-10 | Meidensha Corp | 階層結合型ニューロコンピュータ |
JPH05197821A (ja) * | 1991-11-11 | 1993-08-06 | Omron Corp | 階層型ニューラルネットの最適化方法及び装置 |
JPH10283334A (ja) * | 1997-04-10 | 1998-10-23 | Fuji Electric Co Ltd | ニューラルネットワークの入力層最適化方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2007096954A1 (ja) | 2009-07-09 |
WO2007096954A1 (ja) | 2007-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110799994B (zh) | 神经网络的自适应位宽缩减 | |
CN110168578B (zh) | 具有任务特定路径的多任务神经网络 | |
EP3992857A1 (en) | Method and device for generating neural network model, and computer-readable storage medium | |
CN113128678A (zh) | 神经网络的自适应搜索方法及装置 | |
CN114896899B (zh) | 一种基于信息交互的多智能体分散式决策方法及*** | |
JP2021526678A (ja) | 画像処理方法、装置、電子装置及び記憶媒体 | |
CN110751032A (zh) | 一种无需校准的脑机接口模型的训练方法 | |
JP2020068048A (ja) | 人工ニューラルネットワーク回路及び人工ニューラルネットワーク回路における学習値切替方法 | |
US20190188571A1 (en) | Training neural networks using evolution based strategies and novelty search | |
CN113722980A (zh) | 海洋浪高预测方法、***、计算机设备、存储介质、终端 | |
CN112766496A (zh) | 基于强化学习的深度学习模型安全性保障压缩方法与装置 | |
JP5002821B2 (ja) | ニューラルネットワーク装置及びその方法 | |
CN116090536A (zh) | 神经网络的优化方法、装置、计算机设备及存储介质 | |
CN115168720A (zh) | 内容交互预测方法以及相关设备 | |
CN115438842A (zh) | 一种基于自适应改进蜉蝣和bp神经网络的负荷预测方法 | |
JP6986160B2 (ja) | 画像処理方法および画像処理装置 | |
WO2019240047A1 (ja) | 行動学習装置、行動学習方法、行動学習システム、プログラム、及び記録媒体 | |
CN112214791B (zh) | 基于强化学习的隐私策略优化方法、***及可读存储介质 | |
CN116796821A (zh) | 面向3d目标检测算法的高效神经网络架构搜索方法及装置 | |
Barreto et al. | A self-organizing NARX network and its application to prediction of chaotic time series | |
KR102624710B1 (ko) | Gru 기반 구조물 시계열 응답 예측 방법 | |
CN115168722A (zh) | 内容交互预测方法以及相关设备 | |
Howard et al. | Towards continuous actions in continuous space and time using self-adaptive constructivism in neural XCSF | |
WO2021145185A1 (ja) | 行動認識装置、行動認識方法、プログラム及び記録媒体 | |
CN113537318B (zh) | 一种仿人脑记忆机理的机器人行为决策方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111220 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120207 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |