JP6805984B2 - 畳み込みニューラルネットワーク - Google Patents

畳み込みニューラルネットワーク Download PDF

Info

Publication number
JP6805984B2
JP6805984B2 JP2017133046A JP2017133046A JP6805984B2 JP 6805984 B2 JP6805984 B2 JP 6805984B2 JP 2017133046 A JP2017133046 A JP 2017133046A JP 2017133046 A JP2017133046 A JP 2017133046A JP 6805984 B2 JP6805984 B2 JP 6805984B2
Authority
JP
Japan
Prior art keywords
input
pooling
filter
convolution
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017133046A
Other languages
English (en)
Other versions
JP2019016159A (ja
Inventor
イリナ カタエヴァ
イリナ カタエヴァ
茂樹 大塚
茂樹 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017133046A priority Critical patent/JP6805984B2/ja
Priority to PCT/JP2018/020712 priority patent/WO2019008951A1/ja
Publication of JP2019016159A publication Critical patent/JP2019016159A/ja
Priority to US16/731,667 priority patent/US11501146B2/en
Application granted granted Critical
Publication of JP6805984B2 publication Critical patent/JP6805984B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Description

本発明は、畳み込み層とプーリング層とを含む畳み込みニューラルネットワークに関する。
近年、ディープニューラルネットワーク及びディープラーニングアルゴリズムを使用することにより、例えば画像認識の分野において、従来の機械学習による認識性能を遥かに凌駕する認識性能を得られることが実証されている。この際、ディープニューラルネットワークとして、概して畳み込みニューラルネットワークが用いられる。畳み込みニューラルネットワークは、局所領域(フィルタ)の畳み込み(Convolution)とプーリング(Pooling)とを繰り返して抽出した特徴を、全結合層を介して出力層に伝え、出力層から、ソフトマックス(Softmax)関数などにより、分類すべき各クラスに属する確からしさを示す出力値を出力するように構成される。
このような畳み込みニューラルネットワークでは、畳み込みやプーリングのために、多くの加算、乗算、及び除算などの演算が繰り返される。従って、畳み込みニューラルネットワークにおける演算をCPUやGPUを用いて行う場合、演算負荷が膨大となり、消費電力も増加するという問題がある。
そのため、このような演算を効率良く行うための専用のハードウエア回路の開発が進められている。そのハードウエア回路の一例として、例えば特許文献1や特許文献2に示されるような、印加電圧や通電電流によって異なる抵抗状態に設定することが可能な抵抗変化型メモリ(メモリスタ)を利用したクロスバー回路がある。
このクロスバー回路は、多数の入力バーと多数の出力バーとが交差するように配列され、各交点において入力バーと出力バーとがメモリスタを介して接続されることによって構成される。クロスバー回路の入力バーに入力値に応じた電圧信号を入力すると、各電圧信号はメモリスタによるコンダクタンスを重みとして乗じられた後、出力バー上において積算される。このため、例えば、上述した畳み込みニューラルネットワークのある畳み込み層における、フィルタの各要素の重みに対応したコンダクタンスを各メモリスタに設定することにより、畳み込み演算をクロスバー回路にて実行させることが可能となる。
また、上述したプーリングを行う主な手法として、プーリング範囲に含まれる複数の畳み込み演算結果の中の最大値を選択する最大プーリングと、それら複数の畳み込み演算結果の平均値を算出する平均プーリングがある。近年では、CPUやGPUなどのデジタル回路での演算が容易、畳み込みニューラルネットワークのより迅速な学習が可能、などの理由から最大プーリングが主流となっている。そのため、非特許文献1に示されるように、畳み込み演算だけをクロスバー回路で実行し、最大プーリングのためのプーリング演算を含むその他の処理をデジタル回路で行うものもある。
一方、平均プーリングを用いた場合も、認識性能の点では、最大プーリングと遜色はない。この平均プーリングのためのプーリング演算は、上述したメモリスタのコンダクタンスによる重みをすべて等しく設定することで、クロスバー回路を利用してアナログ領域で行うことができる。そのような例が、非特許文献2に示されている。
国際公開第2016/068953号 国際公開第2017/010049号
Y. Wang, et al. "Low Power Convolutional Neural Networks on a Chip," ISCAS’2016. C. Yakopcic, et al. "Memristor based neuromorphic circuit for ex-situ training of multi-layer neural network algorithms", In 2015 International Joint Conference on Neural Networks (IJCNN) (pp. 1-7). IEEE.
上述した非特許文献2では、畳み込み演算を行うクロスバー回路の出力値(畳み込み演算結果)が、プーリング演算を行うクロスバー回路に入力される。すなわち、非特許文献2では、プーリング演算用に専用のクロスバー回路が設けられている。このため、クロスバー回路が増加することにより、クロスバー回路の面積や消費電力の増大を招くとの問題がある。
本発明は、上述した点に鑑みてなされたものであり、クロスバー回路の回路面積、消費電力を低減することが可能な畳み込みニューラルネットワークを提供することを目的とする。
上記目的を達成するために、本発明による畳み込みニューラルネットワーク(20)は、2次元に配列される入力値からなる入力データに対して、所定サイズの第1フィルタを所定のストライドで2次元方向にシフトさせつつ、各シフト位置において前記第1フィルタの畳み込み演算を行う第1畳み込み層(22、24)と、前記第1畳み込み層による、2次元に配列される畳み込み演算結果を入力値として、所定のプーリング範囲毎にプーリング演算を行うプーリング層(28、29)と、前記プーリング層による、2次元に配列されるプーリング演算結果を入力値として、所定サイズの第2フィルタを所定のストライドで2次元方向にシフトさせつつ、各シフト位置において前記第2フィルタの畳み込み演算を行う第2畳み込み層(23、25)と、を含むものであって、
複数の入力バー(50)と、それら複数の入力バーと交差する出力バー(51、52)と、複数の入力バーと出力バーとの各交点に設けられ、複数の入力バーに入力される各入力値に対して、重みを付与して出力バーに出力する複数の重み付与素子(53)とを有するクロスバー回路(44)と、
前記第2畳み込み層において、各シフト位置での前記第2フィルタの畳み込み演算を行うために必要となる各プーリング演算結果を得るために必要な入力値を、前記第1畳み込み層での演算結果から選択して、前記クロスバー回路の入力バーに入力する制御部(40)と、を備え、
前記クロスバー回路では、前記入力バーに入力される各入力値に対して、それら各入力値から演算されるプーリング演算結果の前記第2フィルタ内の位置に対応する重みが付与されつつ、前記出力バーにおいて加算されて当該出力バーから出力され、
さらに、前記出力バーから出力される出力値が前記プーリング範囲に含まれる畳み込み演算結果の数で除算された値にする除算部(54a)を有し、
前記クロスバー回路において、前記第1畳み込み層の畳み込み演算結果に対する平均プーリング演算と、その平均プーリング演算結果に対する前記第2フィルタの畳み込み演算とが同時に行われるように構成される。
上述した構成により、本発明による畳み込みニューラルネットワークでは、クロスバー回路において、前記第1畳み込み層の畳み込み演算結果に対する平均プーリング演算と、その平均プーリング演算結果に対する前記第2フィルタの畳み込み演算とが同時に行われる。従って、プーリング演算専用のクロスバー回路を設ける必要がないので、クロスバー回路の回路面積や消費電力を大幅に低減することが可能になる。
上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、なんら本発明の範囲を制限することを意図したものではない。
また、上述した特徴以外の、特許請求の範囲の各請求項に記載した技術的特徴に関しては、後述する実施形態の説明及び添付図面から明らかになる。
実施形態による畳み込みニューラルネットワークの構造の一例を概念的に示す図である。 フィルタの畳み込み演算の一例について説明するための説明図である。 畳み込み演算結果に対するプーリング演算の一例について説明するための説明図である。 プーリング演算の結果の一例を示す図である。 図1の畳み込みニューラルネットワークを、クロスバー回路を用いて具現化した場合の構成を示す構成図である。 クロスバー回路について説明するための説明図である。 クロスバー回路について説明するための別の説明図である。 クロスバー回路について説明するためのさらに別の説明図である。 プーリング演算とフィルタの畳み込み演算とを、同じクロスバー回路において実行するための第1実施形態の構成について説明するための説明図である。 第1実施形態において、クロスバー回路にて、プーリング演算とフィルタの畳み込み演算とを同時に行わせるために、マイクロコンピュータが実行する処理を示すフローチャートである。 プーリング演算とフィルタの畳み込み演算とを、同じクロスバー回路において実行するための第2実施形態の構成について説明するための説明図である。 第2実施形態において、クロスバー回路にて、プーリング演算とフィルタの畳み込み演算とを同時に行わせるために、マイクロコンピュータが実行する処理を示すフローチャートである。 第3実施形態における、プーリング演算の対象範囲を定めるウインドウと、そのプーリング演算結果に対して畳み込まれるフィルタ範囲との関係を示す図である。 フィルタ範囲に含まれる各行の入力値に対する重みを、フィルタによって各プーリング演算の対象範囲に付与される重みを用いて表わした結果を示す図である。 同じ重みを有する複数の行をまとめ対象として1行にまとめる第1まとめ処理について説明するための説明図である。 第1まとめ処理により、同じ重みを有する複数の行を1行にまとめた後の範囲に属する入力値を示す図である。 図16に示す各入力値を、第1プーリング層に入力された当初の各入力値を用いて表した結果を示す図である。 第1まとめ処理後の各列の入力値に対する重みを、フィルタによって各プーリング演算の対象範囲に付与される重みを用いて表わした結果を示す図である。 第1まとめ処理後の範囲において同じ重みを有する複数の列をまとめ対象として1列にまとめる第2まとめ処理について説明するための説明図である。 第2まとめ処理により、同じ重みを有する複数の列を1列にまとめた後の範囲に属する入力値を示す図である。 図20に示す各入力値を、第1プーリング層に入力された当初の各入力値を用いて表した結果を示す図である。 プーリング演算とフィルタの畳み込み演算とを、同じクロスバー回路において実行するための第3実施形態の構成について説明するための説明図である。 第3実施形態において、クロスバー回路にて、フィルタの畳み込み演算とプーリング演算とを同時に行わせるために、マイクロコンピュータが実行する処理を示すフローチャートである。
(第1実施形態)
本発明に係る畳み込みニューラルネットワーク(Convolution Neural Network)の第1実施形態を、図面を参照しつつ説明する。以下に説明する実施形態では、入力データとしての画像を、複数のカテゴリに分類する用途に適用した例について説明する。ただし、畳み込みニューラルネットワークは、その他の用途に適用することも可能である。例えば、畳み込みニューラルネットワークは、画像を取り込んで、その画像に映し出された物体や人の検出、人の顔の認識、あるいは、道路標識の認識などにも適用することが可能である。
図1は、本実施形態による畳み込みニューラルネットワーク20の構造の一例を概念的に示している。畳み込みニューラルネットワーク20は、基本的に、コンボリューション層とプーリング層とを交互に接続した構造を有する。例えば、図1に示す例では、畳み込みニューラルネットワーク20は、第1コンボリューション層21、第2コンボリューション層22、第3コンボリューション層23、第4コンボリューション層24、第5コンボリューション層25、第6コンボリューション層26、及び、第7コンボリューション層27からなる7層のコンボリューション層を有している。そして、第2コンボリューション層22と第3コンボリューション層23との間に、第1プーリング層28が設けられ、第4コンボリューション層24と第5コンボリューション層25との間に、第2プーリング層29が設けられている。
このように、畳み込みニューラルネットワーク20においては、コンボリューション層の次に必ずプーリング層が接続されるとは限らず、複数のコンボリューション層を接続した後に、プーリング層が接続されることもある。また、コンボリューション層21〜27及びプーリング層28〜29の層数は、図1に示す例に限られない。一般的には、コンボリューション層21〜27及びプーリング層28〜29の層数を増やすほど、認識性能をより向上させることができる。
第1〜第7コンボリューション層21〜27は、それぞれ入力される入力データ(画像)10に対して、それぞれのコンボリューション層21〜27ごとに定められた所定のサイズ(例えば3×3、5×5)を有するフィルタを畳み込む演算を行う。入力データ10としての画像は、2次元に配列された入力値(ピクセル値)を有する。各コンボリューション層21〜27におけるフィルタの畳み込み演算は、一般的な画像処理でのフィルタの畳み込み、すなわち、小サイズの画像(フィルタ)を入力画像に2次元的に畳み込んで、画像をぼかしたり、エッジを強調したりするものと基本的に同じである。具体的には、第1〜第7コンボリューション層21〜27では、フィルタとしての小サイズの画像の各ピクセル値(重み)と、入力データ10としての画像におけるフィルタと同サイズの領域の各ピクセル値とをそれぞれ掛け合わせた各乗算結果を積算することで、畳み込み演算が行われる。この際、入力データ10が複数枚の画像を含む場合には、それら複数枚の入力画像の同じ領域において同じフィルタによる畳み込み演算が行われ、それらの畳み込み演算による演算結果がさらに積算される。このようにして計算された積算結果は、ReLUやtanhなどの活性化関数を経て、各コンボリューション層21〜27のフィルタ位置に対応する出力値となる。
なお、フィルタの重みは学習によって決定される。学習は、本実施形態では、畳み込みニューラルネットワーク20を、一旦コンピュータ上に構築して、教師あり学習により行われる。学習の対象は、上述したフィルタの重みの他、後述するバイアス入力に対する重みの大きさが含まれる。学習が終了すると、その学習値が、後述するクロスバー回路に設定される。
第1〜第7コンボリューション層21〜27において使用されるフィルタは、例えば図2に示すように、所定のストライドSで入力画像上を2次元方向にシフトされていき、各シフト位置において、上述した畳み込み演算が行われる。これにより、各コンボリューション層21〜27において、入力画像全体に渡ってそれぞれのフィルタのシフト位置に応じた出力値が作成される。それらの出力値を、フィルタのシフト位置に対応するように2次元的にまとめた結果が、各コンボリューション層21〜27による出力データとなり、その一例が、図3に示されている。なお、図3に示す例では、各コンボリューション層21〜27の出力データのサイズが、フィルタのサイズ(K×K)分だけ、当初の入力データのサイズ(T×T)よりも縮小され、[T−K+1]×[T−K+1]となった例を示している。
このように、各コンボリューション層21〜27の出力データは、それぞれ2次元的に配列される画像の形を取り、一般的には特徴マップと呼ばれる。この特徴マップは、各コンボリューション層21〜27において使用されるフィルタの数と同じ数だけ生成される。このため、通常は、第2コンボリューション層22以降の各コンボリューション層22〜27には、複数枚の入力画像(特徴マップ)を含む入力データが入力される。また、第1コンボリューション層21においても、入力画像がカラー画像である場合には、RGBに対応する3枚の画像が入力される。一方、入力画像がグレースケール画像である場合には、第1コンボリューション層21には、1枚の画像が入力されるだけである。
本実施形態では、第6、第7コンボリューション層26、27において使用されるフィルタのサイズは1×1に設定されている。つまり、第6、第7コンボリューション層26、27では、各入力画像における同じ位置のピクセル値が、フィルタによる重みを掛け合わされた上で加算される、1×1の畳み込み演算が行われる。これら第6、第7コンボリューション層26、27として、いわゆる全結合層を用いることも可能であるが、本実施形態では、第6、第7コンボリューション層26、27を含む各コンボリューション層21〜27における畳み込み演算を、クロスバー回路を用いてアナログ領域において実行するために、上述したように1×1の畳み込み演算を行うコンボリューション層を採用している。全結合層を採用すると、入力バーの数が過大となり、1つのクロスバー回路で対応することが困難になるためである。クロスバー回路に関しては、後に詳細に説明する。
第1、第2プーリング層28、29は、入力画像のどの位置でフィルタとの適合性が高かったかを示す情報の一部を捨てることにより、入力画像内に現れる特徴の位置変化に対する不変性を高めるとともに、画像のサイズを縮小して後の計算量を削減できるようにするためのものである。
具体的には、第1、第2プーリング層28、29は、図3に示すように、入力画像に対して所定のサイズ(L×M、具体的には2×2、3×3など)のウインドウを定め、そのウインドウ内の入力値(ピクセル値)を平均化(平均プーリング)したり、ウインドウ内の入力値(ピクセル値)の最大値を採用(最大プーリング)したりすることにより、入力画像の複数の入力値(ピクセル値)を統合する。このプーリング演算では、プーリングの対象範囲を定めるウインドウが重ならないように、ウインドウをシフトさせることが多い。そのため、図3に示す例では、ウインドウの行方向のストライドSCの大きさをS×Lとし、列方向のストライドSLの大きさをS×Mとしている。この結果、プーリング層28、29から出力される画像のサイズは、図4に示すように、ウインドウのサイズ(L×M)に応じて縮小される。一例として、ウインドウのサイズが2×2であり、ウインドウが重ならないように2ピクセルのストライドでシフトした場合には、プーリングにより入力画像のサイズは1/4に縮小される。ただし、プーリング範囲を定めるウインドウが一部重なるように、ウインドウを行方向及び/又は列方向にシフトさせても良い。また、このようなプーリング演算は、各入力画像(特徴マップ)毎に行われるので、プーリング演算前後の入力画像の枚数は不変である。
そして、プーリング層28、29から出力される画像は、後段のコンボリューション層23、25の入力画像となる。それぞれのコンボリューション層23、25は、入力画像に対して、図2を用いて説明したようなフィルタの畳み込み演算を行う。
本実施形態では、第1、第2プーリング層28、29の少なくとも1つにおけるプーリング演算を、その後段のコンボリューション層23、25における畳み込み演算を行うクロスバー回路44において同時に実施する点に特徴がある。この点については、後に詳細に説明する。なお、畳み込み演算と同時に行われるプーリング演算として、クロスバー回路を用いてアナログ領域で行うべく、平均プーリングが採用される。
出力層30は、例えば、ソフトマックス関数による正規化により、分類すべき複数のカテゴリ毎に、入力データ10としての画像が属する確率を出力するように構成される。従って、出力層30が出力する確率の中で最も高い確率に対応するカテゴリを選択することにより、入力データ10としての画像を、複数のカテゴリに分類することができる。
次に、上述した構造を有する畳み込みニューラルネットワーク20を、クロスバー回路を用いて具現化するための構成について図5を参照して説明する。図5に示すように、畳み込みニューラルネットワーク20を具現化するための構成要素として、本実施形態では、主に、マイクロコンピュータ40、D/A変換回路43、クロスバー回路44、及びA/D変換回路45を備えている。
最初に、クロスバー回路44について、図6〜図8に基づいて説明する。図6に示すように、クロスバー回路44は、複数の入力バー50と、複数の出力バー51、52と、複数の重み付与素子としてのメモリスタ53と、複数の差動演算増幅器54とを有する。
複数の入力バー50には、マイクロコンピュータ40によって、入力画像における、上述したフィルタと同サイズの領域の各ピクセル値に対応する入力信号(電圧信号)が入力される。複数の出力バー51、52は、複数の入力バー50とそれぞれ交差するように設けられる。
これらの入力バー50及び出力バー51、52は、例えば図7に示すように、CMOS素子が形成されたCMOS基板上に形成され得る。この場合、入力バー50には、CMOS素子からなる入力ニューロン55を介して、上述したピクセル値に対応する電圧信号が入力されるように構成される。入力バー50と出力バー51との交点には、重み付与素子としてのメモリスタ53が設けられ、入力バー50と出力バー51とは、メモリスタ53を介して接続されている。
メモリスタ53は、印加電圧や通電電流によって、最小値と最大値との間で、異なる抵抗状態に設定することが可能な抵抗変化型メモリである。例えば、メモリスタ53のコンダクタンスは、図示しない電圧印加回路を用いて、負の書込電圧を印加することにより増加させることができ、正の書込電圧を印加することにより減少させることができる。そして、メモリスタ53は、正負の書込電圧以上の電圧が印加されない限り、設定された抵抗状態(コンダクタンス)を維持する。このようなメモリスタ53として使用可能な素子としては、Pt/TiO2/Pt金属酸化物素子、相変化メモリ、磁気トンネル接合メモリ、などがある。
図7に示す構成を、電気回路的に示すと図8のようになる。図8に示すように、出力バー51に接続される出力ニューロン56を構成するCMOS素子によって演算増幅器が形成されている。さらに、この演算増幅器の入出力間に抵抗Rが接続されることにより、加算器が構成されている。このため、図8に示すように、入力ニューロン55から入力バー50にそれぞれ入力された電圧信号V1、V2は、メモリスタ53によるコンダクタンスG1、G2がそれぞれ掛け合わされた上で、出力バー51に接続された加算器において加算される。なお、この加算結果は、加算器にてR倍される。このようにして、出力ニューロン56からは、以下の数式1に示すように、各入力バー50の電圧信号V1、V2、…と、メモリスタ53のコンダクタンスG1、G2、…との乗算結果が積算され、さらにR倍された結果が出力される。
(数1)
出力ニューロンの出力電圧=RΣViGi
図6に示すように、出力バー51は、差動演算増幅器54の非反転入力端子に接続され、出力バー52は、差動演算増幅器54の反転入力端子に接続されている。差動演算増幅器54は、CMOS基板内のCMOS素子を用いて構成され得る。なお、図6においては、図8に示した加算器は省略されている。さらに、図6では、上述した活性化関数としての処理を行う回路も省略されている。実際には、加算器57は差動演算増幅器54の入力側において、出力バー51,52のそれぞれに設けられ、活性化関数処理回路は差動演算増幅器54の出力側に設けられる。このように、CMOS素子によって構成される集積回路には、加算器57、差動演算増幅器54、及び活性化関数処理回路などが含まれる。
本実施形態では、差動演算増幅器54の非反転入力端子及び反転入力端子に、それぞれ出力バー51、52を接続しているので、フィルタとして、正の重みだけでなく、負の重みも利用して畳み込み演算を行うことが可能になる。すなわち、ある入力信号に対して正の重みを掛け合わせる場合には、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、反転入力端子に接続された出力バー52と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている正の重み分だけ大きく設定すれば良い。逆に、ある入力信号に対して負の重みを掛け合わせる場合には、反転入力端子に接続された出力バー52と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている負の重み分だけ大きく設定すれば良い。
従って、本実施形態では、図6に示すように、2本の出力バー51、52を1組として、その1組の出力バー51、52と入力バー50との間のメモリスタ53に対して、該当するコンボリューション層21〜27において使用される、それぞれのフィルタ1、2、3、…に対応する重みが設定される。
マイクロコンピュータ40は、CPU41、RAM42、ROMなどを備え、例えば、ROMに記憶されたプログラムに従い、種々の処理を実施する。なお、以下においては、第1コンボリューション層21を対象とした処理について説明するが、マイクロコンピュータ40は、畳み込み演算とコンボリューション演算とを同じクロスバー回路44において同時に実行するコンボリューション層を除き、他のコンボリューション層22〜27に対しても原則として同様の処理を行なう。
まず、マイクロコンピュータ40は、入力データ10としての画像において、フィルタの畳み込み演算を行う領域を定め、その領域に含まれる各ピクセルのピクセル値に応じたデジタル信号をD/A変換回路43に出力する。これにより、D/A変換回路43は、畳み込み演算が行われる領域の各ピクセル値に応じたアナログ信号(電圧信号)をクロスバー回路44へ出力する。
さらに、マイクロコンピュータ40は、クロスバー回路44における演算処理が終了して、出力が出されるタイミングで、A/D変換回路45からの出力を取り込む処理を実行する。この際、A/D変換回路45は、第1コンボリューション層21において使用されるフィルタ数と同数の、フィルタのあるシフト位置での畳み込み演算、活性化関数による処理を経た出力をデジタル信号に変換して出力している。マイクロコンピュータ40は、A/D変換回路45から出力されたデジタル信号を、複数のフィルタ毎に区別して、RAM42にそれぞれ格納する。
そして、マイクロコンピュータ40は、入力画像において、フィルタの畳み込み演算を行う領域を所定のストライドだけシフトさせ、そのシフト後の領域に含まれるピクセル値に対応するデジタル信号を出力するとともに、上述したのと同様の処理を行う。これを、入力画像のすべての領域でフィルタのシフトが完了するまで繰り返す。これにより、第1コンボリューション層21により作成された、フィルタ数と同数の特徴マップを示すデジタルデータがRAM42に保存される。
次に、本実施形態の特徴に係る、コンボリューション層23、25におけるフィルタの畳み込み演算と、プーリング層28、29におけるプーリング演算とを、同じクロスバー回路44aにおいて同時に実行するための構成について説明する。以下に説明する構成は、第3コンボリューション層23と第1プーリング層28と、第5コンボリューション層25と第2プーリング層29との少なくとも一方において採用される。ただし、以下においては、説明の便宜のため、第3コンボリューション層23と、第1プーリング層28とに対して、プーリング演算とフィルタの畳み込み演算とを同時に実行するための構成を採用した例に関して説明する。
本実施形態においては、図9に示すように、マイクロコンピュータ40が、第1プーリング層28の前段の第2コンボリューション層22から出力された出力データから、第1プーリング層28の後段の第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択し、別々の入力バー50に入力するように構成される。
例えば、図9に示した例では、プーリング演算の対象を定めるウインドウ範囲は、2×2になっている。このウインドウは、図9に示すように、隣接するウインドウと重ならないように、行方向及び列方向にシフトされる。例えば図の左上のウインドウ範囲には、4個の入力値i11、i12、i21、i22が属し、これら4個の入力値i11、i12、i21、i22の平均値が、左上のウインドウ範囲におけるプーリング演算結果となる。
そして、図9に示す例では、第3コンボリューション層23のフィルタのサイズは、3×3である。このため、図9において、フィルタ範囲には、プーリング演算の対象を定めるウインドウが9個含まれている。
クロスバー回路44aには、選択されたすべての入力値を入力可能な本数の入力バー50が設けられる。例えば、図9に示す例において、プーリング演算の対象範囲を定めるウインドウのサイズをL×M、フィルタのサイズをK×Kとすると、入力バー50の本数は、(K×K)×(L×M)+1となる。ただし、入力画像が複数毎ある場合には、入力バー50の本数は、その入力画像の枚数を乗じた数となる。
第3コンボリューション層には複数のフィルタ(1〜N)が設定されており、クロスバー回路44aには、そのフィルタの数Nに応じた本数(2×N)の出力バー51、52が設けられる。そして、クロスバー回路44aのメモリスタ53には、フィルタ毎に、各フィルタの重みに応じたコンダクタンスが設定されている。この際、同じウインドウ範囲に属する入力値に対しては、同じ重みに応じたコンダクタンスが設定される。例えば図9には、あるフィルタに関して、入力値i11、i12、i21、i22に対しては重みw11、入力値i13、i14、i23、i24に対しては重みw12、入力値i15、i16、i25、i26に対しては重みw13、そして、入力値i55、i56、i65、i66に対しては重みw33に応じたコンダクタンスが設定されることが例示されている。
つまり、本実施形態では、プーリング演算の各ウインドウ範囲内に属する入力値に対しては、フィルタ内における各ウインドウ範囲の位置に対応する共通の重みを付与するのである。これにより、同じウインドウ範囲内に属する入力値がそれぞれ共通の重みを付与されて出力バー51、52に出力されることで、各入力値の合計値に同じ重みを付与したのと同等の結果を得ることができる。
クロスバー回路44aに設けられた各差動演算増幅器54aは、入力バー50に入力された各入力値に対するフィルタの畳み込み演算結果を、プーリング演算の対象範囲を定めるウインドウのサイズ(L×M)で除算する除算部としての機能を備えている。図9に示す例では、ウインドウのサイズが2×2であるため、差動演算結果に対して1/4を乗じる例を示している。この除算部としての機能により、入力バー50にそれぞれ入力された、各プーリング演算の対象範囲に含まれる入力値の合計値が平均化される。このため、クロスバー回路44aからは、第2コンボリューション層22の出力データに対して、第1プーリング層28での平均プーリング演算と、そのプーリング演算結果に対する第3コンボリューション層23でのフィルタの畳み込み演算を行った結果が出力されることになる。
但し、差動演算結果に1/(L×M)を乗じる除算部としての機能は、各差動演算増幅器54aに担わせるのではなく、例えば、クロスバー回路44aからの出力データを受け取るマイクロコンピュータ40に担わせ、マイクロコンピュータ40においてデジタル演算にて除算しても良い。あるいは、クロスバー回路44aの各メモリスタ53に、学習した重みをプーリング範囲に含まれる畳み込み演算結果の数で除算した修正重みを設定することにより、各メモリスタ53が除算部としての機能を担うようにしても良い。さらに、マイクロコンピュータ40に除算部としての機能を担わせるために、マイクロコンピュータ40が、各入力値をクロスバー回路44aの入力バー50に入力する前に、各入力値をプーリング範囲に含まれる畳み込み演算結果の数で除算した入力値に修正し、その修正した入力値をクロスバー回路44aに入力させるようにしても良い。
このようにクロスバー回路44aを構成し、かつ、マイクロコンピュータ40が、第2コンボリューション層22から出力された出力データから、第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択し、別々の入力バー50に入力することにより、平均プーリング演算と、各シフト位置でのフィルタの畳み込み演算とが、クロスバー回路44aにおいて同時に行われるようになる。従って、プーリング演算結果を一時的に保存するためのRAM等のメモリや、プーリング演算を行うための専用のクロスバー回路を設ける必要がなくなる。その結果、クロスバー回路の回路面積や、消費電力を大幅に低減することが可能になる。
次に、プーリング演算と、各シフト位置でのフィルタの畳み込み演算とをクロスバー回路44aにて同時に行うために、マイクロコンピュータ40が行う処理を、図10のフローチャートに基づいて説明する。
まず、ステップ100では、入力画像から、クロスバー回路44aの入力バー50へ入力する入力値(ピクセル値)のセットを選択する。この入力値のセットの選択では、上述したように、第1プーリング層28の前段の第2コンボリューション層22から出力された出力データから、第1プーリング層28の後段の第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択する。
続くステップS110では、選択した入力値のセットをクロスバー回路44aへ出力する。すると、D/A変換回路43が、出力された入力値のセットにそれぞれ対応するデジタル信号をアナログ信号に変換して、クロスバー回路44aに入力する。なお、クロスバー回路44aのそれぞれのメモリスタ53には、各フィルタの重みに相当するコンダクタンスが設定されている。
ステップS120では、マイクロコンピュータ40は、クロスバー回路44aからの出力値を取り込む。実際には、クロスバー回路44aから出力されたアナログ信号が、A/D変換回路45によってデジタル信号に変換され、マイクロコンピュータ40は、その変換されたデジタル信号を取り込む。この際、A/D変換回路45は、コンボリューション層23、25において使用されるフィルタ数と同数の、フィルタのあるシフト位置での畳み込み演算、平均プーリング演算による処理を経た出力をデジタル信号に変換して出力している。マイクロコンピュータ40は、ステップS130において、A/D変換回路45から出力されたデジタル信号を、複数のフィルタ毎に区別して、RAM42にそれぞれ格納する。
ステップS140では、入力画像の全範囲をカバーするようにフィルタをシフトし、入力値のセットの選択はすべて完了したか否かを判定する。未だ未選択の入力値のセットがある場合には、ステップS100の処理に戻り、上述した処理を繰り返す。
(第2実施形態)
次に、本発明に係る畳み込みニューラルネットワークの第2実施形態について、図面を参照しつつ説明する。本実施形態の畳み込みニューラルネットワークを具現化するための構成は、基本的に、第1実施形態の畳み込みニューラルネットワークを具現化するための構成と同じである。従って、構成に関する説明は省略する。
本実施形態は、上述した第1実施形態よりも、プーリング演算とフィルタの畳み込み演算とを同時に行うクロスバー回路を小型化することが可能である点に特徴がある。以下、クロスバー回路を小型化するための工夫点について、詳細に説明する。なお、本実施形態においても、第3コンボリューション層23と、第1プーリング層28とに対して、プーリング演算とフィルタの畳み込み演算とを同時に実行するための構成を採用した例に関して説明する。
上述した第1実施形態では、第1プーリング層28の前段の第2コンボリューション層22から出力された出力データから、第1プーリング層28の後段の第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択して、クロスバー回路44aの入力バー50に入力するように構成された。従って、クロスバー回路44aの入力バー50の本数は、上述したように、(K×K)×(L×M)+1となる。
それに対して、本実施形態では、マイクロコンピュータ40が、クロスバー回路44bの入力バー50に入力する入力値を選択する点は、第1実施形態と同様であるが、プーリング演算において、同じウインドウ範囲に属する入力値の合計値を、マイクロコンピュータ40において事前に算出する点が異なる。
具体的には、図11に示すように、各ウインドウ範囲に属する入力値は、事前に合計値が算出され、その算出された合計値がクロスバー回路44bの各々の入力バー50に入力される。これにより、本実施形態では、クロスバー回路44bの入力バー50の本数を、第1実施形態よりも大幅に削減することができる。すなわち、第1実施形態と同様に、プーリング演算の対象範囲を定めるウインドウのサイズをL×M、フィルタのサイズをK×Kとすると、本実施形態における入力バー50の本数は、K×K+1となり、第1実施形態に比較して、約1/(L×M)に削減することができる。
そして、図11のクロスバー回路44bの各メモリスタ53には、それぞれのフィルタの重みに応じたコンダクタンスが設定されているので、出力バー51、52に接続された各差動演算増幅器54aからは、それぞれのフィルタの畳み込み演算結果が出力される。さらに、差動演算増幅器54aは、第1実施形態と同様に、入力バー50に入力された各入力値に対するフィルタの畳み込み演算結果を、プーリング演算の対象範囲を定めるウインドウのサイズで除算する除算部としての機能を備えている。従って、本実施形態においても、クロスバー回路44bからは、第2コンボリューション層22の出力データに対して、第1プーリング層28での平均プーリング演算と、そのプーリング演算結果に対する第3コンボリューション層23でのフィルタの畳み込み演算の両方を行った結果が出力されることになる。
なお、図11に示す例では、差動演算増幅器54aが除算部として、プーリング範囲に含まれる畳み込み演算結果の数で除算しているが、第1実施形態の場合と同様に、クロスバー回路44bからの出力データを受け取るマイクロコンピュータ40が除算部として、出力データに含まれる各値をプーリング範囲に含まれる畳み込み演算結果の数で除算しても良い。あるいは、クロスバー回路44aの各メモリスタ53に、学習した重みをプーリング範囲に含まれる畳み込み演算結果の数で除算した修正重みを設定することにより、各メモリスタ53が除算部としての機能を担うようにしても良い。
次に、プーリング演算と、各シフト位置でのフィルタの畳み込み演算とをクロスバー回路44bにて同時に行うために、マイクロコンピュータ40が行う処理を、図12のフローチャートに基づいて説明する。なお、図12のフローチャートでは、図10のフローチャートと同様の処理を行うステップには、同じステップ番号が付与されている。
まず、ステップS100では、入力画像から、クロスバー回路44bの入力バー50へ入力する入力値(ピクセル値)のセットを選択する。この入力値のセットの選択では、図10のフローチャートのステップS100と同様に、第1プーリング層28の前段の第2コンボリューション層22から出力された出力データから、第1プーリング層28の後段の第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択する。
続くステップS105では、選択したすべての入力値に基づき、それぞれのプーリング演算の対象範囲毎に、入力値の合計値を算出する。続くステップS115では、それぞれのプーリング演算の対象範囲毎の入力値の合計値をクロスバー回路44bへ出力する。すると、D/A変換回路43が、出力された入力値の合計値にそれぞれ対応するデジタル信号をアナログ信号に変換して、クロスバー回路44bに入力する。
ステップS120では、マイクロコンピュータ40は、クロスバー回路44bからの出力値を取り込む。実際には、クロスバー回路44bから出力されたアナログ信号が、A/D変換回路45によってデジタル信号に変換され、マイクロコンピュータ40は、その変換されたデジタル信号を取り込む。この際、A/D変換回路45は、第3コンボリューション層23において使用されるフィルタ数と同数の、フィルタのあるシフト位置での畳み込み演算、平均プーリング演算による処理を経た出力をデジタル信号に変換して出力している。マイクロコンピュータ40は、ステップS130において、A/D変換回路45から出力されたデジタル信号を、複数のフィルタ毎に区別して、RAM42にそれぞれ格納する。
ステップS140では、入力画像の全範囲をカバーするようにフィルタをシフトし、入力値のセットの選択はすべて完了したか否かを判定する。未だ未選択の入力値のセットがある場合には、ステップS100の処理に戻り、上述した処理を繰り返す。
(第3実施形態)
次に、本発明に係る畳み込みニューラルネットワークの第3実施形態について、図面を参照しつつ説明する。本実施形態の畳み込みニューラルネットワークを具現化するための構成は、基本的に、第1、第2実施形態の畳み込みニューラルネットワークを具現化するための構成と同じである。従って、構成に関する説明は省略する。
本実施形態では、所定のサイズを有するプーリング演算の対象範囲を定めるウインドウが、行方向と列方向との少なくとも一方において、隣接するプーリング範囲と一部重なるようにシフトされることを前提としている。なお、以下においては、ウインドウが、行方向及び列方向において、隣接するウインドウと一部重なる例について説明する。
そして、本第3実施形態では、上述した前提の下で、クロスバー回路44cのサイズを小型化することができるようにした点に特徴がある。以下、第3実施形態の特徴点について、図面を参照しつつ詳細に説明する。なお、本実施形態においても、第1プーリング層28と第3コンボリューション層23とに、プーリング演算とフィルタの畳み込み演算とを同時に行う構成を採用した列を説明する。
図13は、プーリング演算の対象範囲を定めるウインドウと、そのプーリング演算結果に対して畳み込まれるフィルタ範囲との関係を示している。なお、図13において、ウインドウのサイズは3×3であり、フィルタのサイズも3×3である。さらに、図13では、フィルタによって、各プーリング演算の対象範囲に付与される重みを、それぞれのフィルタ内のウインドウの位置に応じて、w11〜w13、w21〜w23、w31〜w33にて表している。また、図13では、第1プーリング層28の前段の第2コンボリューション層22から出力され、第1プーリング層28に入力される各入力値に対する重みを、その入力値の位置に応じて、W11〜W17、W21〜W27、W31〜W37、W41〜W47、W51〜W57、W61〜W67、W71〜W77にて表している。
なお、各プーリング演算の対象範囲に付与される重みw11〜w13、w21〜w23、w31〜w33及び各入力値に対する重みW11〜W17、W21〜W27、W31〜W37、W41〜W47、W51〜W57、W61〜W67、W71〜W77とも、便宜的に、図13に示すフィルタの左上を基準位置とし、行方向(紙面右方向)にずれるほど、列番号が増加し、列方向(紙面下方向)にずれるほど、行番号が増加するようにしている。
本実施形態では、クロスバー回路44cの小型化のため、以下に示す事前処理を行って、クロスバー回路44cの各メモリスタ53に設定する重みを算出するとともに、各入力バー50に入力する入力値を算出するための算出式を定める。
図14には、上述した各入力値に対する重みW11〜W17、W21〜W27、W31〜W37、W41〜W47、W51〜W57、W61〜W67、W71〜W77が、フィルタによって各プーリング演算の対象範囲に付与される重みw11〜w13、w21〜w23、w31〜w33を用いて表されている。図13及び図14から理解されるように、各入力値に対する重みW11〜W17、W21〜W27、W31〜W37、W41〜W47、W51〜W57、W61〜W67、W71〜W77は、その入力値がいくつのウインドウに属するかによって決まる。すなわち、1つのウインドウにしか属さない入力値に対する重みは、その1つのウインドウで定義されるプーリング演算の対象範囲に付与される重みとなる。2つのウインドウに属する入力値に対する重みは、その2つのウインドウで定義されるプーリング演算の対象範囲にそれぞれ付与される重みを加算した重みとなる。4つのウインドウに属する入力値に対する重みは、その4つのウインドウで定義されるプーリング演算の対象範囲にそれぞれ付与される重みを加算した重みとなる。
ここで、本実施形態では、ウインドウが隣接するウインドウと一部重なるように行方向及び列方向にシフトされるので、上述したように、各入力値に対する重みW11〜W17、W21〜W27、W31〜W37、W41〜W47、W51〜W57、W61〜W67、W71〜W77を、各プーリング演算の対象範囲に付与される重みw11〜w13、w21〜w23、w31〜w33を用いて表したとき、すべての入力値に対して同じフィルタ重みを持つ複数の行と同じ重みを持つ複数の列が発生する。例えば、図14に示すように、第1行の各入力値に対する重みW11〜W17と第2行の各入力値に対する重みW21〜W27とは、対応する各重み要素がすべて等しい。同様に、第6行の各入力値に対する重みW61〜W67と第7行の各入力値に対する重みW71〜W77も対応する各重み要素がすべて等しくなっている。
そこで、本実施形態では、図15に示すように、各入力値に対して同じ重みが付与される複数の行をまとめ対象として、1行にまとめる。このように、同じ重みが付与される複数の行を1行にまとめる処理を第1まとめ処理と呼ぶ。
図15には、第1まとめ処理後の、各入力値に対する重みも示されている。上述したように、第1行と第2行が1行にまとめられた結果、第1行の各入力値に対する重みW11〜W17のみが残され、第2行の重みW21〜W27は削除されている。同様に、第6行と第7行とが1行にまとめられた結果、第6行の重みW61〜W67のみが残され、第7行の重みW71〜W77は削除されている。
そして、本実施形態では、同じ重みを有する複数の行を1行にまとめる処理を行ったことに対応して、入力値をまとめる処理も実施する。このように、第1まとめ処理には、同じ重み要素を持つ複数の行を1行にまとめるだけではなく、その複数の行の入力値をまとめる処理も含まれる。入力値のまとめ処理では、同一の重みを有する複数の行が1行にまとめられたので、このまとめられた複数の行に属する各行の対応する入力値を加算するようにして、1行にまとめられた重みに対応する1行の入力値を算出するための算出式を定める。このように、まとめられた複数の行に属する各行の対応する入力値を加算して、複数の行から残された行の重みに対する入力値とすることにより、まとめ処理前後で同じ演算結果を得ることが可能となる。
図16及び図17に基づき、入力値のまとめ処理をより具体的に説明する。図16に示すように、第1まとめ処理後の各行の重みW11〜W77に対応する各行の入力値をI11〜I17、I3137、I41〜I47、I51〜I57、及びI61〜I67と表すこととする。図17は、第1まとめ処理後の各行の入力値I11〜I17、I3137、I41〜I47、I51〜I57及びI61〜I67を、第2コンボリューション層22により出力され、第1プーリング層28に入力される、当初の各入力値i11〜i17、i21〜i27、i31〜i37、i41〜i47、i51〜i57、i61〜i67、i71〜i77を用いて表したものである。
第1まとめ処理では、図15に示されるように、3行目〜5行目の重みW31〜W37、W41〜W47、W51〜W57は、上述したように、まとめ対象とはなっていない。そのため、図17に示すように、第1まとめ処理後の2〜4行目の入力値I31〜I37、I41〜I47、I51〜I57は、それぞれ、まとめ処理前の3〜5行目の入力値i31〜i37、i41〜i47、i51〜i57に等しい。一方、第1まとめ処理により、第1行と第2行の重みW11〜W17、W21〜W27が、第1行により1行分の重みW11〜W17にまとめられている。このため、その第1行の重みW11〜W17に対応する1行目の入力値I1117は、図17に示すように、当初の第1行、第2行の入力値の要素同士を加算して算出するように算出式が定められる。さらに、第1まとめ処理により、第6行と第7行の重みW61〜W67、W71〜W77が、第6行の1行分の重みW61〜W67にまとめられている。このため、その第6行の重みに対応する5行目の入力値I61〜I67は、図17に示すように、当初の第6行、第7行の入力値の要素同士を加算して算出するように算出式が定められる。
このように、本実施形態では、第1まとめ処理によって、同じ重みを有する複数の行を1行にまとめるとともに、そのまとめ対象となった行の入力値の要素同士を加算して、入力値の算出式を定める。そして、第1まとめ処理後の各行の重みを、クロスバー回路44cのメモリスタ53に設定しておく。実際に画像認識が行われるときには、マイクロコンピュータ40が、図17に示す算出式に従って算出した入力値をクロスバー回路44cの入力バー50に入力するようにすれば、入力バー50の本数を削減でき、クロスバー回路44cを小型化することができる。
上述したような第1まとめ処理を行うだけでも、クロスバー回路44cの小型化を図ることが可能である。しかし、更なるクロスバー回路44cの小型化を図るため、上述した第1まとめ処理後に、同じ重みを有する複数の列を1列にまとめつつ、そのまとめ対象となった列の入力値の要素同士を加算して、入力値の算出式を定める第2まとめ処理を実行しても良い。
以下、第2まとめ処理について、図18〜図23に基づき、具体的に説明する。図18は、第1まとめ処理後の各入力値に対する重みを各列毎に示したものである。この図18に示すように、第1まとめ処理後の第1列の重みW11、W31、W41、W51、W61と第2列の重みW12、W32、W42、W52、W62は、対応する各要素がすべて等しくなっている。同様に、第1まとめ処理後の第6列の重みW16、W36、W46、W56、W66と第7列の重みW17、W37、W47、W57、W67も対応する各要素がすべて等しくなっている。
そこで、本実施形態では、図19に示すように、第1まとめ処理後の範囲を対象として、さらに、同じ重みを有する複数の列をまとめ対象として、1列にまとめる第2まとめ処理を実施する。
第2まとめ処理後の範囲が、図19に示されている。図19に示す例では、第1列及び第2列が1列にまとめられて、第1列の重みW11、W31、W41、W51、W61のみが残され、第2列の重みW12、W32、W42、W52、W62は削除されている。同様に、第6列と第7列とが1列にまとめられて、第6列の重みW16、W36、W46、W56、W66のみが残され、第7列の重みW17、W37、W47、W57、W67は削除されている。
さらに、本実施形態では、第2まとめ処理として、第1まとめ処理後の範囲において同じ重みを有する複数の列を1列にまとめる処理を行ったことに対応して、それら複数の列の入力値をまとめる処理も実施する。入力値のまとめ処理では、同一のフィルタ重みを有する複数の列が1列にまとめられたので、まとめられた複数の列に対応する複数の入力値の列の要素同士を加算するようにして、入力値を算出するための算出式を定める。このように、第1まとめ処理後の範囲において、同じ重み要素を持つ複数の列を1列にまとめるとともに、まとめられた複数の列に対応する複数の列の入力値を加算して、複数の列から残された列の重みに対応する入力値とすることにより、第2まとめ処理前後で同じ演算結果を得ることが可能となる。
図20及び図21に基づき、第2まとめ処理における、入力値のまとめ処理をより具体的に説明する。図20に示すように、第2まとめ処理において、同じ重みを持つ複数の列をまとめた後の第1列の入力値をI’11、I’31、I’41、I’51、I’61、第2列の入力値をI’13、I’33、I’43、I’53、I’63、第3列の入力値をI’14、I’34、I’44、I’54、I’64、第4列の入力値をI’15、I’35、I’45、I’55、I’65、第5列の入力値をI’16、I’36、I’46、I’56、I’66と表すこととする。図21は、第2まとめ処理における、同じ重みを持つ複数の列をまとめた後の各列の入力値I’11、I’31、I’41、I’51、I’61、I’13、I’33、I’43、I’53、I’63、I’14、I’34、I’44、I’54、I’64、I’15、I’35、I’45、I’55、I’65、I’16、I’36、I’46、I’56、I’66を、第1まとめ処理後の各入力値I11〜I17、I31〜I37、I41〜I47、I51〜I57、I61〜I67、さらに、当初の各入力値i11〜i17、i21〜i27、i31〜i37、i41〜i47、i51〜i57、i61〜i67、i71〜i77との関係を示している。
第2まとめ処理において、3列目の重みW13、W33、W43、W53、W63、4列目の重みW14、W34、W44、W54、W64、及び5列目の重みW15、W35、W45、W55、W65は、上述したように、第2まとめ処理の対象とはなっていない。そのため、図21に示すように、2列目の入力値I’13、I’33、I’43、I’53、I’63、3列目の入力値I’14、I’34、I’44、I’54、I’64、及び4列目の入力値I’15、I’35、I’45、I’55、I’65は、それぞれ、第1まとめ処理後の範囲の3列目の入力値I13、I33、I43、I53、I63、4列目の入力値I14、I34、I44、I54、I64、及び5列目の入力値I15、I35、I45、I55、I65に等しい。一方、図19に示すように、第2まとめ処理により、第1列の重みW11、W31、W41、W51、W61と第2列の重みW12、W32、W42、W52、W62が、1列分の重みW11、W31、W41、W51、W61にまとめられている。このため、図21に示すように、第2まとめ処理後の範囲の1列目の入力値I’11、I’31、I’41、I’51、I’61は、第1まとめ処理後の範囲の第1列及び第2列の入力値の要素同士を加算して算出するように算出式が定められる。さらに、図19に示すように、第2まとめ処理により、第6列の重みW16、W36、W46、W56、W66と第7列の重みW17、W37、W47、W57、W67が、1列分の重みW16、W36、W46、W56、W66にまとめられている。このため、図21に示すように、第2まとめ処理後の範囲の5列目の入力値I’16、I’36、I’46、I’56、I’66は、第1まとめ処理後の範囲の第6列及び第7列の入力値の要素同士を加算して算出するように算出式が定められる。
このように、本実施形態では、第1及び第2まとめ処理によって、同じ重みを有する複数の行を1行にまとめ、さらに複数の列を1列にまとめる。その際、まとめ対象となった同じ重みを有する複数の行の入力値の各要素を加算して、まとめた行に対する入力値の算出式を定める。さらに、まとめ対象となった同じ重みを有する複数の列の入力値の各要素を加算して、まとめた列に対する入力値の算出式を定める。そして、図19に示す、第1及び第2まとめ処理後の範囲の入力値に対するそれぞれの重みを、図22のクロスバー回路44cのメモリスタ53に設定する。
実際に画像認識が行われるときには、マイクロコンピュータ40が、図21に示す算出式に従って、第1及び第2まとめ処理後の範囲に対応する入力値I’11、I’31、I’41、I’51、I’61、I’13、I’33、I’43、I’53、I’63、I’14、I’34、I’44、I’54、I’64、I’15、I’35、I’45、I’55、I’65、I’16、I’36、I’46、I’56、I’66を算出して、クロスバー回路44cの入力バー50に入力する。
このように、本実施形態では、第1プーリング層28の前段の第2コンボリューション層22が出力する入力画像の入力値に対して、事前に第1及び第2まとめ処理を実施することにより、第3コンボリューション層23におけるフィルタの畳み込み演算を行う範囲を縮小することができる。その結果、クロスバー回路44cに入力する入力値の数を減少させることができる。従って、本実施形態によれば、プーリング演算の対象範囲を定めるウインドウが、行方向と列方向との少なくとも一方において、隣接するプーリング範囲と一部重なるようにシフトされる場合に、効果的に、クロスバー回路44cの小型化を図ることができる。
そして、図22のクロスバー回路44cの各メモリスタ53には、それぞれのフィルタ1〜Nの重みに応じたコンダクタンスが設定されているので、出力バー51、52に接続された各差動演算増幅器54aからは、それぞれのフィルタ1〜Nの畳み込み演算結果が出力される。さらに、差動演算増幅器54aは、第1、第2実施形態と同様に、入力バー50に入力された各入力値に対するフィルタの畳み込み演算結果を、プーリング演算の対象範囲を定めるウインドウのサイズで除算する除算部としての機能を備えている。従って、本実施形態においても、クロスバー回路44cからは、第2コンボリューション層22の出力データを入力画像として、第1プーリング層28での平均プーリング演算と、そのプーリング演算結果に対する第3コンボリューション層23でのフィルタの畳み込み演算の両方を行った結果が出力されることになる。
また、図22に示す例では、差動演算増幅器54aが除算部として、プーリング範囲に含まれる畳み込み演算結果の数で除算しているが、第1実施形態の場合と同様に、クロスバー回路44cからの出力データを受け取るマイクロコンピュータ40が、除算部として、出力データに含まれる各値をプーリング範囲に含まれる畳み込み演算結果の数で除算しても良い。あるいは、クロスバー回路44cの各メモリスタ53に、学習した重みをプーリング範囲に含まれる畳み込み演算結果の数で除算した修正重みを設定することにより、各メモリスタ53が除算部としての機能を担うようにしても良い。さらに、マイクロコンピュータ40に除算部としての機能を担わせるために、マイクロコンピュータ40が、各入力値をクロスバー回路44cの入力バー50に入力する前に、各入力値をプーリング範囲に含まれる畳み込み演算結果の数で除算した入力値に修正し、その修正した入力値をクロスバー回路44cに入力させるようにしても良い。
次に、クロスバー回路44cにて、フィルタの畳み込み演算とプーリング演算とを同時に行わせるために、本実施形態のマイクロコンピュータ40が実行する処理を、図23のフローチャートに基づいて説明する。
まず、ステップS100では、入力画像から、クロスバー回路44cの入力バー50へ入力する入力値(ピクセル値)のセットを選択する。この入力値のセットの選択では、第1、第2実施形態と同様に、第1プーリング層28の前段の第2コンボリューション層22から出力された出力データから、第1プーリング層28の後段の第3コンボリューション層23においてフィルタの各シフト位置での当該フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を選択する。
続くステップS108では、選択したすべての入力値に基づき、図21に示す算出式に従い、第1及び第2まとめ処理後のフィルタ内の各位置の入力値を算出する。なお、図21に示す入力値の算出式は、図13を用いて説明した各種の条件の下で成立するものである。換言すれば、各種の条件が異なれば、入力値の算出式も異なったものとなる。この入力値の算出式は、事前処理において設定され、マイクロコンピュータ40のメモリに保存されている。
続くステップS118では、算出したフィルタ内の各位置の入力値をクロスバー回路44cへ出力する。すると、D/A変換回路43が、出力された入力値にそれぞれ対応するデジタル信号をアナログ信号に変換して、クロスバー回路44cに入力する。
ステップS120では、マイクロコンピュータ40は、クロスバー回路44cからの出力値を取り込む。実際には、クロスバー回路44cから出力されたアナログ信号が、A/D変換回路45によってデジタル信号に変換され、マイクロコンピュータ40は、その変換されたデジタル信号を取り込む。この際、A/D変換回路45は、第3コンボリューション層23において使用されるフィルタ数と同数の、フィルタのあるシフト位置での畳み込み演算、平均プーリング演算による処理を経た出力をデジタル信号に変換して出力している。マイクロコンピュータ40は、ステップS130において、A/D変換回路45から出力されたデジタル信号を、複数のフィルタ毎に区別して、RAM42にそれぞれ格納する。
ステップS140では、入力画像の全範囲をカバーするようにフィルタをシフトし、入力値のセットの選択はすべて完了したか否かを判定する。未だ未選択の入力値のセットがある場合には、ステップS100の処理に戻り、上述した処理を繰り返す。
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することが可能である。
例えば、上述した第3実施形態では、第1まとめ処理により、同じ重みを有する複数の行を1行にまとめるとともに、それら複数の行の入力値の要素同士を加算するように、入力値の算出式を定めた。その後、第2まとめ処理により、第1まとめ処理後の範囲において、同じ重みを有する複数の列を1列にまとめるとともに、まとめ対象となった複数の列の入力値の要素同士を加算するように、入力値の算出式を定めるものであった。
しかしながら、必ずしも第1まとめ処理と第2まとめ処理の両方を行わなくとも良い。換言すれば、同じ重みを有する複数の行又は複数の列をまとめつつ、そのまとめた複数の行又は複数の列の入力値の要素同士を加算する算出式を定めるだけでも良い。この場合も、クロスバー回路44cを小型化することができる。
さらに、第1まとめ処理と第2まとめ処理の両方を行う場合、その順序は、上述した第3実施形態に示す例に限られない。すなわち、先に、同じ重みを有する複数の列を1列にまとめるとともに、まとめ対象となった複数の列の入力値の要素同士を加算する入力値の算出式を定める第2まとめ処理を行い、その後、第2まとめ処理後の範囲において、同じ重みを有する複数の行を1行にまとめるとともに、まとめ対象となった複数の行入力値の要素同士を加算する入力値の算出式を定めるようにしても良い。
10:入力データ、20:畳み込みニューラルネットワーク、21〜27:第1〜第7コンボリューション層、28:第1プーリング層、29:第2プーリング層、30:出力層、40:マイクロコンピュータ、43:D/A変換回路、44:クロスバー回路、45:A/D変換回路、50:入力バー、51、52:出力バー、53:重み付与素子、54:差動演算増幅器、55:入力ニューロン、56:出力ニューロン

Claims (13)

  1. 2次元に配列される入力値からなる入力データに対して、所定サイズの第1フィルタを所定のストライドで2次元方向にシフトさせつつ、各シフト位置において前記第1フィルタの畳み込み演算を行う第1畳み込み層(22、24)と、前記第1畳み込み層による、2次元に配列される畳み込み演算結果を入力値として、所定のプーリング範囲毎にプーリング演算を行うプーリング層(28、29)と、前記プーリング層による、2次元に配列されるプーリング演算結果を入力値として、所定サイズの第2フィルタを所定のストライドで2次元方向にシフトさせつつ、各シフト位置において前記第2フィルタの畳み込み演算を行う第2畳み込み層(23、25)と、を含む畳み込みニューラルネットワーク(20)であって、
    複数の入力バー(50)と、それら複数の入力バーと交差する出力バー(51、52)と、複数の入力バーと出力バーとの各交点に設けられ、複数の入力バーに入力される各入力値に対して、重みを付与して出力バーに出力する複数の重み付与素子(53)とを有するクロスバー回路(44)と、
    前記第2畳み込み層において、各シフト位置での前記第2フィルタの畳み込み演算を行うために必要となる各プーリング演算結果を得るために必要な入力値を、前記第1畳み込み層での演算結果から選択して、前記クロスバー回路の入力バーに入力する制御部(40)と、を備え、
    前記クロスバー回路では、入力バーに入力される各入力値に対して、それら各入力値から演算されるプーリング演算結果の前記第2フィルタ内の位置に対応する重みが付与されつつ、出力バーにおいて加算されて当該出力バーから出力され、
    さらに、出力バーから出力される出力値が前記プーリング範囲に含まれる畳み込み演算結果の数で除算された値にする除算部(54a)を有し、
    前記クロスバー回路において、前記第1畳み込み層の畳み込み演算結果に対する平均プーリング演算と、その平均プーリング演算結果に対する前記第2フィルタの畳み込み演算とが同時に行われるように構成された畳み込みニューラルネットワーク。
  2. 前記第2畳み込み層では、前記第2フィルタとして、複数のフィルタの畳み込み演算が行われ、
    前記クロスバー回路には、前記複数のフィルタに応じた数の出力バーが設けられ、各出力バーから、プーリング演算及び前記複数のフィルタのそれぞれに対応する畳み込み演算後の出力値が出力される請求項1に記載の畳み込みニューラルネットワーク。
  3. 前記クロスバー回路における重み付与素子には、外部にて行われる学習結果に基づく重みがそれぞれ設定される請求項1又は2に記載の畳み込みニューラルネットワーク。
  4. 前記制御部は、前記第1畳み込み層での演算結果から選択される、前記第2畳み込み層において前記第2フィルタの各シフト位置での前記第2フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を、別々の前記入力バーに入力し、
    前記クロスバー回路は、入力される前記第2フィルタのシフト位置毎のすべての入力値に対して、各入力値から演算されるプーリング演算結果の前記第2フィルタ内の位置に対応する重みを付与しつつ、出力バーにおいて加算する請求項1乃至3のいずれかに記載の畳み込みニューラルネットワーク。
  5. 前記除算部は、前記クロスバー回路に入力される入力値と前記クロスバー回路から出力される出力値とのどちらかを、前記プーリング範囲に含まれる畳み込み演算結果の数で除算するものである請求項4に記載の畳み込みニューラルネットワーク。
  6. 前記除算部は、前記重み付与素子が付与する重みが、前記プーリング範囲に含まれる畳み込み演算結果の数で除算した重みに修正され、その修正された重みが各入力値に付与されることによって具現化されるものである請求項4に記載の畳み込みニューラルネットワーク。
  7. 前記制御部は、前記第1畳み込み層での演算結果から選択される、前記第2畳み込み層において前記第2フィルタの各シフト位置での前記第2フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るために必要なすべての入力値を用いて、それぞれのプーリング演算の対象範囲に含まれる入力値の合計値を算出し、その算出した入力値の合計値を、それぞれ、前記入力バーに入力し、
    前記クロスバー回路は、入力される入力値の合計値に対して、それぞれのプーリング演算結果の前記第2フィルタ内の位置に対応する重みを付与しつつ、出力バーにおいて加算する請求項1乃至3のいずれかに記載の畳み込みニューラルネットワーク。
  8. 前記除算部は、前記クロスバー回路から出力される出力値を、前記プーリング範囲に含まれる畳み込み演算結果の数で除算するものである請求項7に記載の畳み込みニューラルネットワーク。
  9. 前記除算部は、前記重み付与素子が付与する重みが、前記プーリング範囲に含まれる畳み込み演算結果の数で除算した重みに修正され、その修正された重みが各入力値に付与されることによって具現化されるものである請求項7に記載の畳み込みニューラルネットワーク。
  10. 前記プーリング範囲は、行方向と列方向との少なくとも一方において、隣接するプーリング範囲と一部重なるようにシフトされ、
    前記制御部は、前記第2畳み込み層において前記第2フィルタの各シフト位置での前記第2フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るための、各々のプーリング範囲を重ねた場合に、行方向と列方向との一方において、同じ重みが付与される入力値の複数の行又は入力値の複数の列を特定し、その特定した複数の行又は複数の列に含まれる対応する入力値同士を加算して、1行の入力値又は1列の入力値にまとめるまとめ処理を行い、前記まとめ処理により縮小された範囲に含まれる入力値を前記入力バーに入力し、
    前記クロスバー回路において、入力される各入力値に対して、それぞれのプーリング演算結果の前記第2フィルタ内の位置に対応する重みを付与する際に、複数のプーリング範囲に属する入力値に対する重みとして、それら複数のプーリング範囲にそれぞれ付与される複数の重みを加算した加算重みが設定される請求項1乃至3のいずれかに記載の畳み込みニューラルネットワーク。
  11. 前記プーリング範囲は、行方向と列方向とにおいて、隣接するプーリング範囲と一部重なるようにシフトされ、
    前記制御部は、前記第2畳み込み層において前記第2フィルタの各シフト位置での前記第2フィルタの畳み込み演算のために必要となる各プーリング演算結果を得るための、各々のプーリング範囲を重ねた場合に、行方向と列方向との一方において、同じ重みが付与される入力値の複数の行と入力値の複数の列との一方を特定し、その特定した複数の行又は複数の列に含まれる対応する入力値同士を加算して、1行の入力値又は1列の入力値にまとめる第1まとめ処理を行い、さらに、第1まとめ処理により縮小された範囲において、行方向と列方向との他方において、同じ重みが付与される入力値の複数の行と入力値の複数の列との他方を特定し、その特定した複数の行又は複数の列に含まれる対応する入力値同士を加算して、1行の入力値又は1列の入力値にまとめる第2まとめ処理を行い、前記第1まとめ処理及び第2まとめ処理により縮小された範囲に含まれる入力値を前記入力バーに入力し、
    前記クロスバー回路において、入力される各入力値に対して、それぞれのプーリング演算結果の前記第2フィルタ内の位置に対応する重みを付与する際に、複数のプーリング範囲に属する入力値に対する重みとして、それら複数のプーリング範囲にそれぞれ付与される複数の重みを加算した加算重みが設定される請求項1乃至3のいずれかに記載の畳み込みニューラルネットワーク。
  12. 前記除算部は、前記クロスバー回路に入力される入力値と前記クロスバー回路から出力される出力値とのどちらかを、前記プーリング範囲に含まれる畳み込み演算結果の数で除算するものである請求項11に記載の畳み込みニューラルネットワーク。
  13. 前記除算部は、前記重み付与素子が付与する重みが、前記プーリング範囲に含まれる畳み込み演算結果の数で除算した重みに修正され、その修正された重みが各入力値に付与されることによって具現化されるものである請求項11に記載の畳み込みニューラルネットワーク。
JP2017133046A 2017-07-06 2017-07-06 畳み込みニューラルネットワーク Active JP6805984B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017133046A JP6805984B2 (ja) 2017-07-06 2017-07-06 畳み込みニューラルネットワーク
PCT/JP2018/020712 WO2019008951A1 (ja) 2017-07-06 2018-05-30 畳み込みニューラルネットワーク
US16/731,667 US11501146B2 (en) 2017-07-06 2019-12-31 Convolutional neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133046A JP6805984B2 (ja) 2017-07-06 2017-07-06 畳み込みニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2019016159A JP2019016159A (ja) 2019-01-31
JP6805984B2 true JP6805984B2 (ja) 2020-12-23

Family

ID=64949939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133046A Active JP6805984B2 (ja) 2017-07-06 2017-07-06 畳み込みニューラルネットワーク

Country Status (3)

Country Link
US (1) US11501146B2 (ja)
JP (1) JP6805984B2 (ja)
WO (1) WO2019008951A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6724869B2 (ja) 2017-06-19 2020-07-15 株式会社デンソー 多層ニューラルネットワークのニューロンの出力レベル調整方法
JP6724870B2 (ja) 2017-06-19 2020-07-15 株式会社デンソー 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
CN110852429B (zh) * 2019-10-28 2022-02-18 华中科技大学 一种基于1t1r的卷积神经网络电路及其操作方法
WO2021130951A1 (ja) * 2019-12-26 2021-07-01 日本電気株式会社 物体追跡装置、物体追跡方法及び記録媒体
US11507831B2 (en) 2020-02-24 2022-11-22 Stmicroelectronics International N.V. Pooling unit for deep learning acceleration
JP7481956B2 (ja) * 2020-08-26 2024-05-13 株式会社東芝 推論装置、方法、プログラムおよび学習装置
CN112633265B (zh) * 2021-03-11 2021-05-18 耕宇牧星(北京)空间科技有限公司 针对基于深度学习目标旋转框检测的池化方法和***
CN113570478B (zh) * 2021-06-29 2023-10-31 中北大学 基于边缘计算的桥梁健康状态智能评估方法
CN114429638B (zh) * 2022-04-06 2022-07-08 四川省大数据中心 一种施工图审查管理***

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170078633A (ko) 2014-10-30 2017-07-07 휴렛 팩커드 엔터프라이즈 디벨롭먼트 엘피 벡터 처리를 위한 더블 바이어스 멤리스티브 내적 엔진
US10474948B2 (en) * 2015-03-27 2019-11-12 University Of Dayton Analog neuromorphic circuit implemented using resistive memories
US9934463B2 (en) 2015-05-15 2018-04-03 Arizona Board Of Regents On Behalf Of Arizona State University Neuromorphic computational system(s) using resistive synaptic devices
US10332004B2 (en) 2015-07-13 2019-06-25 Denso Corporation Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
JP6750203B2 (ja) * 2015-10-20 2020-09-02 富士通株式会社 畳み込みニューラルネットワークの演算方法及び演算プログラム、情報処理装置
WO2017142629A1 (en) * 2016-02-18 2017-08-24 Google Inc. Image classification neural networks
WO2017152990A1 (en) * 2016-03-11 2017-09-14 Telecom Italia S.P.A. Convolutional neural networks, particularly for image analysis
CN108304922B (zh) * 2017-01-13 2020-12-15 华为技术有限公司 用于神经网络计算的计算设备和计算方法
TWI607389B (zh) * 2017-02-10 2017-12-01 耐能股份有限公司 卷積神經網路的池化運算裝置及方法
JP6915349B2 (ja) * 2017-04-04 2021-08-04 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2019168084A1 (ja) * 2018-03-02 2019-09-06 日本電気株式会社 推論装置、畳み込み演算実行方法及びプログラム
CN109460817B (zh) * 2018-09-11 2021-08-03 华中科技大学 一种基于非易失存储器的卷积神经网络片上学习***
US11741350B2 (en) * 2019-11-27 2023-08-29 Amazon Technologies, Inc. Efficient utilization of processing element array
KR20210143614A (ko) * 2020-05-20 2021-11-29 삼성전자주식회사 뉴럴 네트워크를 구현하는 뉴로모픽 장치 및 그 동작 방법

Also Published As

Publication number Publication date
WO2019008951A1 (ja) 2019-01-10
US11501146B2 (en) 2022-11-15
US20200134436A1 (en) 2020-04-30
JP2019016159A (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
JP6805984B2 (ja) 畳み込みニューラルネットワーク
JP6724869B2 (ja) 多層ニューラルネットワークのニューロンの出力レベル調整方法
JP6724863B2 (ja) 畳み込みニューラルネットワーク
CN113874883A (zh) 手部姿势估计
CN112598080B (zh) 基于注意力的宽度图卷积神经网络模型***及训练方法
JP7101646B2 (ja) イメージ復元方法及び装置
WO2023146523A1 (en) Event-based extraction of features in a convolutional spiking neural network
JP6365258B2 (ja) 演算処理装置
JP6414458B2 (ja) 演算処理装置
CN111127336A (zh) 一种基于自适应选择模块的图像信号处理方法
CN112633481B (zh) 一种多跳图卷积神经网络模型***及训练方法
CN111914997A (zh) 训练神经网络的方法、图像处理方法及装置
US11562215B2 (en) Artificial neural network circuit
KR101563569B1 (ko) 학습형 다이내믹 시각 이미지 패턴 인식 시스템 및 방법
CN115331109A (zh) 基于旋转等变卷积通道注意力增强和多尺度特征融合的遥感图像目标检测方法
CN112668700B (zh) 一种基于分组注意的宽度图卷积网络模型***及训练方法
US20240185405A1 (en) Information processing apparatus, information processing method, and program
JP7398938B2 (ja) 情報処理装置およびその学習方法
JP2017027314A (ja) 並列演算装置、画像処理装置及び並列演算方法
Ye et al. Low-quality image object detection based on reinforcement learning adaptive enhancement
CN106845550B (zh) 一种基于多模板的图像识别方法
CN109146069B (zh) 运算装置、运算方法和芯片
CN115668272B (zh) 图像处理方法及设备、计算机可读存储介质
CN108268815B (zh) 图像场景理解的方法及装置
JP6741159B1 (ja) 推論装置及び推論方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R151 Written notification of patent or utility model registration

Ref document number: 6805984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250