JPH0318985A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JPH0318985A
JPH0318985A JP15232789A JP15232789A JPH0318985A JP H0318985 A JPH0318985 A JP H0318985A JP 15232789 A JP15232789 A JP 15232789A JP 15232789 A JP15232789 A JP 15232789A JP H0318985 A JPH0318985 A JP H0318985A
Authority
JP
Japan
Prior art keywords
circuit
coupling coefficient
transistor
value
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15232789A
Other languages
English (en)
Inventor
Tomoyuki Watabe
知行 渡部
Toru Umaji
馬路 徹
Tatsuji Matsuura
達治 松浦
Hitoshi Kume
久米 均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP15232789A priority Critical patent/JPH0318985A/ja
Publication of JPH0318985A publication Critical patent/JPH0318985A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Analogue/Digital Conversion (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は情報処理装置に関し、特にアナログ回路を用い
てニューラルネットLSIを構成した情報処理装置に関
する。
ニューラルネットにューラルネットワーク。
人工神経回路網)は生物の神経構造を見習った電気回路
によって、あいまいさや経験法則を含む認識問題や判断
問題を効率良く解こうとするものである。近年、アナロ
グまたはデジタル方式によりシリコンチップ上でこれを
実現するニューラルネットLSI(またはニューロチッ
プ)の実現に対する要請が増大している。
〔従来の技術〕
この発明に関係する公知例としては、J、P、Sage
*に、Thompson and R,S、11ith
ers rAN ARTIFICIALNHLIRAL
  NETVORK  INTEGRATED  CI
RCUIT  BASED  ONMNO5/CCD 
 PRINCIPLESJ  Digest  of 
 TechnicalPapers onthe Co
nference on  Naural  Netw
orksin  Computing  (Apr、8
6)  ppa81−385  (by  Amari
canInstitute of Physics) 
Jが挙げられる。
この公知例はアナログMO8技術を用いるLSI構成法
の1例である。各ニューロンの出力信号の大小はCCD
上に蓄えた電荷量で表わす、結合係数はEHFROM等
に用いられるMNO8素子に蓄えられた電荷量で表す、
第11図にMNO8素子の構造を示す、MNO8素子は
電荷を不揮発的に蓄積できるゲートをもつトランジスタ
である。ナイトライド層114に電荷を蓄積する。制御
電極113に与える電圧により蓄積電荷(図中の十−記
号)を出し入れする。結合係数の値はその#I積重電荷
量で与える。その電荷量をCCDを用いた電荷転送およ
び読みだし/書き込み技術によりアナログ量として読み
出し/または書き込む、MNO8素子に対する電荷の書
き込みおよび読みだしの方法はMNO8素子の両側にC
ODゲートをおき、これを順次間いて書き込み読みだし
を行なうものである。すなわちMNO8素子1個と両側
のCOD素子2個の、合計3素子で結合係数1個を構成
する。
なおMNO5素子のほかにも電荷を不揮発的に蓄積でき
るゲートをもつトランジスタとしてフローティングゲー
トトランジスタ等がある。フローティングゲートトラン
ジスタは前記のナイトライド層のかわりに浮遊ゲートを
有するものである。
ここでニューラルネットとして一般的な、階層構造ニュ
ーラルネットについて参考として紹介する。また第4図
を用いて詳細な用語と記号の定義を行なう、第4図の記
号は、本明細書を通じて用いるものである。
第4図に、階層構造ニューラルネットの基本構成を示す
、以下、バックプロパゲーション形ニューラルネットを
例にとってその動作を説明する。
左端にニューロンNIk  (k=1〜n)からなる入
力層、そして中間にニューロンNMa  (j=1〜m
)からなる中間層、右端にニューロンN O5(i=1
〜L)からなる出力層がある。この回路に入力信号の組
Xx=X、(以下入力ベクトルXと呼ぶ)を与えると対
応する高力信号の組Y1〜YL(以下出力ベクトルYと
呼ぶ)を発生する。教師信号の組T1〜TL、(以下教
師ベクトルTと呼ぶ)は入力ベクトルXに対して出力ベ
クトルYがとるべき理想値(お手本)である、中間層の
出力を中間層ベクトルZ (Zx=Z−)と呼ぶ、入力
層ニューロンNIhから中間層ニューロンNM−を結ぶ
結合係数をm J h s中間層ニューロンNMjから
出力層ニューロンNO!を結ぶ結合係数をW s aと
する。入力層の出力X+−(k=1〜n)は、入力ベク
トルXがそのまま出力される。ここでベクトルX、Y、
Z、Tの各コンポーネントおよび結合係数W目tmah
の各コンポーネントの大きさは1通常0(完全off)
から1(完全on)の間の任意のアナログ値をとる。
中間層ベクトル2は次式で与えられる。
Z−=f(Σ mJh*  xm)         
     ・・・o)k=1 ここでfは第4図の上段に示した、ニューロンの入出力
関数である。ふつうは図の曲線の形状のシグモイド関数
が用いられる。また、出力ベクトルYは次式で与えられ
る。
Yi=f(Σ  W i a 傘 ZJ)      
           −<2)j=ま ただし、O≦Xh、 Yi* Za+ mah+ W*
a≦1以上示したように、結合係数m Jh I W 
I Jの値の組を種々変えることにより、同じニューラ
ルネットで異なる入出力変換特性を得ることができる。
すなわち種々の異なる機能を持っ認識マシン等を実現す
ることができる。
さて、入力ベクトルに対して希望の変換ルールにより変
換された出力ベクトルが得られるように結合係数の値を
決定することを「学習するJという、その方法は種々研
究されてきたが最近の有力な手法の一つがバックプロパ
ゲーション法である。
まず所望の教師ベクトルTがわがっている入力ベクトル
Xを複数組用意する。出力ベクトルY(Ys〜YL)と
教師ベクトルT(Tl〜T L )が一致するように結
合係数を決める。各係数の初期値としては通常乱数を与
えておく、その後、以下の漸化式を用いて結合係数を繰
返し修正していく、詳細は省略して結果を示す、繰返し
計算のある時点の結合係数WIJとm a bに、加え
るべき一回の修正量をそれぞれΔW I J 、6m 
Jhとすると1次式で示される。
Δw*a= ’? ”(Ti  Y弧)傘Y、拳(1−
Yl)”ZJ・・・(3) i=1 喰 ’NtJ*Z4 傘 (1−Z a)串 Xhコ−
(4)i=1 傘Y處、−(i −ZJ)傘xhl    ・・・(5
)ただしYIJ=w息−−21(これは入力が21だけ
のときの出力Yi ) 、η=定数、である。
ここでηは通常0.1〜0.3程度の値がもちいられ、
過剰修正による発散を防ぐ。
以上の修正を繰り返し、複数の例題のどれに対してもY
がTにほぼ等しくなるまで繰り返す、これがすむとこの
回路はある変換ルールを学習したことになる。その結果
未知の入力ベクトルに対してもほぼ妥当な類推値を出力
することができる。
〔発明が解決しようとする課題〕
上記の公知例の方法では第1に結合係数1個に対して素
子数3個を要するという欠点がある。第2に信号として
電荷を用いるためMNO8素子、CCD素子、および通
常のMO8素子という3種類の素子構造を同一チップ上
に形成する必要がある。このためLSIの製造プロセス
が非常に111Mになるという欠点がある。第3にMN
OSおよびCCDにより電荷を順次転送して信号処理を
行なうので動作が低速であるという欠点がある。
また公知側以外に、デジタル方式でニューラルネットL
SIを構成する方法もある。デジタル方式はアナログ方
式に比べ素子数が5ないし10倍多くなる問題がある。
したがって本発明の目的は少ない素子数と、簡単な製造
プロセスと、高速な信号処理速度を有するニューラルネ
ットLSIによる情報処理装置を実現することである。
〔課題を解決するための手段〕
本発明は上記目的を達成するため、第1に電荷蓄積用ゲ
ートをもつトランジスタのソース・ドレイン間抵抗を結
合係数として用いることにより同トランジスタ1個だけ
で結合係数1個を実現する。
第2にCGDI子を不要とし、電荷蓄積用ゲートをもつ
トランジスタと通常のMO8素子の2種類だけをLSI
上に構成する製造プロセスを可能にする。第3に信号と
して電圧および電流を用いることにより高速動作を実現
することを特徴とするものである。
〔作用〕
電荷を不揮発的に蓄積できるゲートをもつトランジスタ
のドレイン・ソース間コンダクタンスGDSは、電荷蓄
積ゲートの蓄積電荷によって変化する。このときコンダ
クタンスGosの変化量は、制御電圧を印加する時間の
長さにほぼ比例するといλ関係がある。また制御電圧の
正負によってGosの増加または減少を自由に選択でき
る。これに着目し、上記Gosを結合係数として用いる
。結合係数更新には、結合係数の必要変更量に比例した
長さのパルス幅を持つパルス電圧を制御電極に印加する
。このとき、係数が増加するが減少するかはMNO8素
子の極性とパルスの正負で決まり、正負両パルスを使い
分ける。
結合係数の必要変化景の決定はアナログ回路等で行なう
以下実施例によって本発明の詳細な説明する。
〔実施例〕
第1図は本発明第1の実施例の部分図(概念図)である
、第4図の構造のうち、中間層、出方層、およびその間
の結合係数W1−の組が示されている。
電圧ドライバで示したシグモイド関数発生器101は、
中間層に相当する。ここにはm個の電圧ドライバが含ま
れている0図示しであるj#目の電圧ドライバが中間層
ニューロンNM−である。その出力が中間層ベクトル2
のj番目の要素Z1である・−慇ンプで示したシグモイ
ド関数発生器101は、出力層に相当する。ここにはL
個の電流アンプが含まれている0図示しである1番目の
電流アンプが出力層ニューロンN Oiにあたる。
その出力が出力ベクトルYの1番目の要素Y1である。
電荷蓄積ゲート形トランジスタ(ここではMNO5素子
)11がNM−とN01を結ぶ結合係数wiJである。
結合係数はトランジスタのソース・ドレイン間インピー
ダンスを用いることにより素子1個で構成されている。
j=1〜m、i=1〜Lにわたる全結合を、結合係数マ
トリクス23で構成する。各トランジスタの制御電極1
13を図の点線で示した配線で接続し、アドレスデコー
ダ(図示されてない)で所望のトランジスタの制御電極
に電圧を印加する。ここではwl−を更新するときの結
線状態の概念図として、(iy J)番■のトランジス
タ11がアドレスされて制御電圧が印加されている結線
状態を、実細線の矢印で模擬的に示している。
出力Y1がとるべき値として教師ベクトルの要JI T
 * が与えられている。Yi とT、の差からwll
の必要修正量Δw崖1を計算する回路が、W t J修
正量決定回路104である。ΔWIJを求める計算方法
は〔従来の技術〕の式(3)を用いる。その回路構成は
第2図を用いて後述する。104の出力はΔw1−の大
きさに対応した電圧である。この電圧に比例したパルス
幅τを有する、パルス制御電圧を発生する回路が、電圧
・時間変換器13である。13の出力パルスをトランジ
スタ11の制御電極113に印加すると、結合係数がち
ょうどΔW r aだけ変化するように、パルス幅τと
パルス電圧値を決める。iとjを順次進めてアドレスを
行ない、結合係数マトリクス23の更新を行なう。
以下、第2図によりさらに詳細に説明する。
第2図は本発明第1の実施例の部分図である。
第1図の具体回路にあたる6図のアンプ記号は1が中間
層のシグモイド関数発生器、2が出力層のシグモイド関
数発生器である。これらは厳密なシグモイド関数を発生
する必要はなく、通常のアナログアンプで実現できる。
これらのアンプの入力インピーダンスは電荷蓄積ゲート
形トランジスタ(MNO8I!4子)11のGosに比
シテテキルタケ小さく選ぶ。
以下、(x* J)番目の結合係数を更新する状態につ
いて回路の動作を説明する。先に第1図で示したW i
 J修正量決定回路104が、3カ所の接続点201,
202,203でZJ、yl、Tムに接続されている。
この接続点は(le j)の値が変わるにつれて順次切
り換えていく。図の回路と、〔従来の技術〕の式(3)
との対応を以下述べる。
まず接続点201,202から取り込んだYlとT1の
差を減算器14で求め、これにY、を乗する。また、)
ligh側の基準電圧vM(論理1に対応)からYiを
減じた差を作り、さらにこれを乗する。
つぎに接続点203から取り込んだZ−をさらに乗する
。この演算結果は(Ts  Yi)傘Y、拳(1−Yt
)串Zaである。これは比例係数ηを増幅器の利得で調
整すればそのまま式(3)を示しており、ΔW t a
に対応する電圧である。この電圧を電圧・時間変換器1
3で所望のパルス幅τをもつ制御電圧パルスに変換する
。このパルスを1つだけ発生させる。これをW I J
を形成しているMNO5素子11の制御電極113に印
加する。
この更新用回路は一1*Jの値の順番に従って接続を切
り換えるのではなく、l+Jのそれぞれに対して上記の
wtjtl正量決定回路を設け、同時に更新を行なって
もよい。
第3図は本発明の第1の実施例の全体図である。
入力層(X 1−X n )と中間層(Zl−Z−)を
結ぶ結合係数ml、および中間層と出力層(Y1〜Y+
、)を結ぶ結合係数W I Jのマトリクス回路23が
設けである。その外側にmJkとW I Jの更新用回
路が設けられている。Δw1j発生用の回路は第2回と
同じである。Δmlの発生(〔従来の技術〕の式(5)
)では中間層ベクトルが25だけのときの出力Yiaが
必要であり、全体をiに関して加算する必要がある。こ
の手順は以下のとおりである#まず図の21から2.の
所に示したスイチツをすべてonにしておく、そして第
2図で述べたようにΔW i aの更新を行なう、ΔW
 1Jの値をサンプルホールド回路で保存しながら前記
のスイッチをZaだけonLで他はoffする。このと
きの出力信号Y、がYIJであるから、この状態で図の
アナログ回路部を動作させる。結果をアキュムレータA
Acc21に蓄える。アキュムレータはアナログ方式で
も、デジタル方式にAD、DA変換を付加したものでも
よい、これでiの1からLまで累積して4m Jhの値
を得る。これを電圧・時間変換器に印加し、4m a 
mに比例したパルスを1個だけ発生させる。これをMN
O8素子に印加してm a hの更新を行なう、これに
より、i、j、にのアドレスを順次切り換えて学習を行
なう。
本実施例により、簡単な回路構成と製造プロセスで高速
なアナログニューラルネットLSIが構成できる。
第6図は本発明第2の実施例の部分図である。
第2図のyi傘(vi<−Yt)の計算回路をデルタ回
路と名付ける要素回路を用いて簡略化している。
Yl”(VM−Yl)という式はYiに関する簡単な放
物線関数である。その関数形をa(yi)で表す。
(ここでvMは原理式上はlに対応する)、a(yi)
の形状は上に凸の放物線で、YiがOと1のとき値が0
となる。またyt が0.5 のとき最大値をとる++
YtはOから1の範囲で変化する(付録参照)、シたが
って、Gは近似的にはY稟が0または1に近いとき0に
近づくような上に凸の関数を作ればよい、これがデルタ
回路である。
第5図は本発明第2の実施例の要素回路図である。デル
タ回路の構成法を示したものである。
(a)、(b)は原理図である。(a)はリファレンス
電圧が少し異なる2つのアンプの入出力持性Vs とv
2の概念図である1両アンプは低利得形にして特性の傾
きを小さくし、出力のローレベルとハイレベルは各々等
しく、その値はVi、とVWである。(b)にVi−V
zの特性概念図を示す。
アンプの飽和特性により、(b)のように入力が0と1
に近いときに出力がほぼ0になる。G(Yl)に近い形
の特性が得られる。(C)にアンプの回路図を示す、ト
ランスコンダクタンスアンプを用いている。(d)にデ
ルタ回路を示す。
第7図は本発明第2の実施例の全体図である。
同様にデルタ回路を用いて回路を簡略化している。
本実施例によれば簡略化した回路で第1の実施例と同様
の効果が得られる。
第8図および第9図は本発明第3の実施例の部分図およ
び全体図である。ここではG(Yl)の回路を完全に省
略して回路のいっそうの簡略化を図っている。G(Yl
)はYlが0.5 近くではあまり変化しない、そこで
a(Vt)を一定値(=1)に固定したものである0本
構成によれば、精度は若干落ちるものの、さらに簡略化
された構造が得られる。
第10図は本発明第4の実施例の全体図である。
ここでは第9図の回路からさらに21傘(■に−ZJ)
の演算を取り除いたものである。VM−Z−の演算を行
なう減算器14を除去した。ZJの項はY I Jの中
にすでに含まれるので除算器を用いてこれを取り除いた
0本構成によっても精度は若干落ちるものの、さらに簡
略化された構造が得られる。
〔発明の効果〕
以上述べたように本発明によれば、第1に電荷蓄積用ゲ
ートをもつトランジスタ1個だけで結合係数1個を実現
でき回路が大幅に簡略化できる。
第2に電荷蓄積用ゲートをもつトランジスタと通常のM
O8素子の2種類だけをLSI上に構成すればよいため
製造プロセスが大幅に簡略化できる。
第3に信号として電圧および電流を用いることにより高
速動作を実現することができる。これらの大きな効果を
有するものである。
【図面の簡単な説明】
第1図は本発明第1の実施例の部分図(概念図)、第2
図は本発明第1の実施例の部分図、第3図は本発明第1
の実施例の全体図、第4図は階層構造ニューラルネット
の基本楕成図、第5図は本発明第2の実施例の要素回路
図、((a)、(b)は原理図、(c)はトランスコン
ダクタンスアンプの回路図、(d)はデルタ回路の回路
図)、第6図は本発明第2の実施例の部分図、第7図は
本発明第2の実施例の全体図、第8図は本発明第3の実
施例の部分図、第9図は本発明第3の実施例の全l・・
・中間層のシグモイド関数発生器、2・・・出力層のシ
グモイド関数発生器、11・・・電荷蓄積ゲート形トラ
ンジスタ(MNO8素子)、12・・・乗算器、13・
・・電圧・時間変換器、14・・・減算器、21・・・
アキュムレータ、22・・・除算器、23・・・結合係
数マトリクス、24・・・サンプルホールド回路、51
・・・トランスコンダクタンスアンプ、101・・・シ
グモイド関数発生器、104・・・W I J修正量決
定回路。 113・・・制御電極、201,202,203・・・
接続点。 ネ 4 目 驚飲f N+へ (d) 1 トランスコ〉タークタンス7ンア

Claims (1)

  1. 【特許請求の範囲】 1、電荷を不揮発的に蓄積できるゲートをもつトランジ
    スタのソース・ドレイン間抵抗を、ニューラルネットの
    結合係数として用い、結合係数更新時に上記トランジス
    タに電気信号を印加して結合係数を変化させる装置であ
    つて、結合係数の更新後の値と更新前の値の差に比例し
    た時間だけ上記電気信号を印加することにより結合係数
    を修正することを特徴とする情報処理装置。 2、上記トランジスタをMNOSトランジスタで構成し
    たことを特徴とする特許請求の範囲第1項記載の情報処
    理装置。 3、出力ベクトルの要素の値から、対応する教師ベクト
    ルの要素の値を差し引いた差信号を形成する回路と、上
    記差信号に中間層ベクトルの要素の値を乗じた積信号を
    形成する回路と、上記積信号に比例した長さの時間だけ
    前記トランジスタに前記電気信号を印加する回路を具備
    したことを特徴とする特許請求の範囲第1項記載の情報
    処理装置。 4、出力ベクトルの要素の値から、対応する教師ベクト
    ルの要素の値を差し引いた第1の差信号を形成する回路
    と、第1の差信号に上記出力ベクトルの要素の値を乗じ
    て第1の積信号を形成する回路と、一定電圧から上記出
    力ベクトルの要素の値を差し引いた第2の差信号を形成
    する回路と、第1の積信号に第2の差信号を乗じて第2
    の積信号を形成する回路と、第2の積信号に対応する中
    間層ベクトルの要素の値を乗じて第3の積信号を形成す
    る回路と、第3の積信号に比例した長さの時間だけ上記
    トランジスタに上記電気信号を印加する回路を具備した
    ことを特徴とする特許請求の範囲第1項記載の情報処理
    装置。 5、第1の増幅回路と、入力のオフセット電圧が第1の
    増幅回路とは異なる第2の増幅回路と、第1および第2
    の増幅回路に共通の入力信号を加える手段と、第1の増
    幅回路の出力から第2の増幅回路の出力を差し引いた差
    信号を形成する回路を具備することを特徴とする特許請
    求の範囲第1項記載の情報処理装置。
JP15232789A 1989-06-16 1989-06-16 情報処理装置 Pending JPH0318985A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15232789A JPH0318985A (ja) 1989-06-16 1989-06-16 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15232789A JPH0318985A (ja) 1989-06-16 1989-06-16 情報処理装置

Publications (1)

Publication Number Publication Date
JPH0318985A true JPH0318985A (ja) 1991-01-28

Family

ID=15538107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15232789A Pending JPH0318985A (ja) 1989-06-16 1989-06-16 情報処理装置

Country Status (1)

Country Link
JP (1) JPH0318985A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019517138A (ja) * 2016-05-17 2019-06-20 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 不揮発性メモリアレイを使用したディープラーニングニューラルネットワーク分類器
US10699779B2 (en) 2017-11-29 2020-06-30 Silicon Storage Technology, Inc. Neural network classifier using array of two-gate non-volatile memory cells
US10748630B2 (en) 2017-11-29 2020-08-18 Silicon Storage Technology, Inc. High precision and highly efficient tuning mechanisms and algorithms for analog neuromorphic memory in artificial neural networks
US10803943B2 (en) 2017-11-29 2020-10-13 Silicon Storage Technology, Inc. Neural network classifier using array of four-gate non-volatile memory cells
US11087207B2 (en) 2018-03-14 2021-08-10 Silicon Storage Technology, Inc. Decoders for analog neural memory in deep learning artificial neural network
US11270771B2 (en) 2019-01-29 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of stacked gate non-volatile memory cells
JP2022519494A (ja) * 2019-01-29 2022-03-24 シリコン ストーリッジ テクノロージー インコーポレイテッド 4ゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類器
US11409352B2 (en) 2019-01-18 2022-08-09 Silicon Storage Technology, Inc. Power management for an analog neural memory in a deep learning artificial neural network
US11423979B2 (en) 2019-04-29 2022-08-23 Silicon Storage Technology, Inc. Decoding system and physical layout for analog neural memory in deep learning artificial neural network
US11893478B2 (en) 2019-01-18 2024-02-06 Silicon Storage Technology, Inc. Programmable output blocks for analog neural memory in a deep learning artificial neural network
US12033692B2 (en) 2023-03-21 2024-07-09 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790208B2 (en) 2016-05-17 2023-10-17 Silicon Storage Technology, Inc. Output circuitry for non-volatile memory array in neural network
JP2019517138A (ja) * 2016-05-17 2019-06-20 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 不揮発性メモリアレイを使用したディープラーニングニューラルネットワーク分類器
US11972795B2 (en) 2016-05-17 2024-04-30 Silicon Storage Technology, Inc. Verification of a weight stored in a non-volatile memory cell in a neural network following a programming operation
US11853856B2 (en) 2016-05-17 2023-12-26 Silicon Storage Technology, Inc. Programming methods for neural network using non-volatile memory array
US11308383B2 (en) 2016-05-17 2022-04-19 Silicon Storage Technology, Inc. Deep learning neural network classifier using non-volatile memory array
US11829859B2 (en) 2016-05-17 2023-11-28 Silicon Storage Technology, Inc. Verification of a weight stored in a non-volatile memory cell in a neural network following a programming operation
US10699779B2 (en) 2017-11-29 2020-06-30 Silicon Storage Technology, Inc. Neural network classifier using array of two-gate non-volatile memory cells
US10748630B2 (en) 2017-11-29 2020-08-18 Silicon Storage Technology, Inc. High precision and highly efficient tuning mechanisms and algorithms for analog neuromorphic memory in artificial neural networks
US10803943B2 (en) 2017-11-29 2020-10-13 Silicon Storage Technology, Inc. Neural network classifier using array of four-gate non-volatile memory cells
US11087207B2 (en) 2018-03-14 2021-08-10 Silicon Storage Technology, Inc. Decoders for analog neural memory in deep learning artificial neural network
US11270763B2 (en) 2019-01-18 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells
US11500442B2 (en) 2019-01-18 2022-11-15 Silicon Storage Technology, Inc. System for converting neuron current into neuron current-based time pulses in an analog neural memory in a deep learning artificial neural network
US11646075B2 (en) 2019-01-18 2023-05-09 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells
US11409352B2 (en) 2019-01-18 2022-08-09 Silicon Storage Technology, Inc. Power management for an analog neural memory in a deep learning artificial neural network
JP2022523292A (ja) * 2019-01-18 2022-04-22 シリコン ストーリッジ テクノロージー インコーポレイテッド 2ゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類子
US11893478B2 (en) 2019-01-18 2024-02-06 Silicon Storage Technology, Inc. Programmable output blocks for analog neural memory in a deep learning artificial neural network
JP2022519494A (ja) * 2019-01-29 2022-03-24 シリコン ストーリッジ テクノロージー インコーポレイテッド 4ゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類器
US11270771B2 (en) 2019-01-29 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of stacked gate non-volatile memory cells
US11423979B2 (en) 2019-04-29 2022-08-23 Silicon Storage Technology, Inc. Decoding system and physical layout for analog neural memory in deep learning artificial neural network
US12033692B2 (en) 2023-03-21 2024-07-09 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells

Similar Documents

Publication Publication Date Title
US11663457B2 (en) Neural network circuits having non-volatile synapse arrays
CN111433792B (zh) 可编程可重置人工神经网络的基于计数器的电阻处理单元
Holler et al. An electrically trainable artificial neural network (ETANN) with 10240'floating gate'synapses
US20200053299A1 (en) Image sensor with analog sample and hold circuit control for analog neural networks
JP4620943B2 (ja) 積和演算回路及びその方法
EP0357016B1 (en) Neuron architecture
US5264734A (en) Difference calculating neural network utilizing switched capacitors
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
US10381074B1 (en) Differential weight reading of an analog memory element in crosspoint array utilizing current subtraction transistors
JPH03250244A (ja) 情報処理装置
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
WO2019033084A1 (en) PULSE MODULATION MULTIPLIER DURATION
JPH0318985A (ja) 情報処理装置
US10832773B1 (en) Architecture for enabling zero value shifting
CN112734022B (zh) 一种具有识别和排序功能的四字符忆阻神经网络电路
US5329610A (en) Neural network employing absolute value calculating synapse
Gi et al. A ReRAM-based convolutional neural network accelerator using the analog layer normalization technique
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH03144785A (ja) ニューロ素子
JP3095798B2 (ja) アナログ逆伝搬学習回路とその駆動方法
Asai et al. A MOS circuit for a nonmonotonic neural network with excellent retrieval capabilities
US20240028297A1 (en) Semiconductor device performing a multiplication and accumulation operation
Ibrahim et al. Design of modifiable-weight synapse CMOS analog cell
CN116451751A (zh) 单个非易失性器件存储正负权重的突触结构、神经网络电路、存算一体芯片和电子设备
Cao et al. A local search based learning method for multiple-valued logic networks