JPH07192073A - プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置 - Google Patents
プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置Info
- Publication number
- JPH07192073A JPH07192073A JP5332848A JP33284893A JPH07192073A JP H07192073 A JPH07192073 A JP H07192073A JP 5332848 A JP5332848 A JP 5332848A JP 33284893 A JP33284893 A JP 33284893A JP H07192073 A JPH07192073 A JP H07192073A
- Authority
- JP
- Japan
- Prior art keywords
- memory
- input
- neural network
- weight
- load
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Memory System (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
Abstract
(57)【要約】
【目的】 ハードウェアの変更なしに、アナログ、デジ
タルを問わず任意の入出力関数を実現できるプログラマ
ブル・デバイスを提供すること。また、入力信号と出力
信号の組み合わせさえ与えれば、設計者が回路を設計す
ることなく所望の入出力特性を持ったデバイスを構成で
きる装置を提供すること。 【構成】 ハードウェアを変更せずにその入出力信号間
の関数を変更することができるプログラマブル・デバイ
ス101であって、階層型ニューラルネットワーク10
3と、荷重データを格納するための書き換え可能な荷重
メモリー102とを、同一チップ上に搭載している。
タルを問わず任意の入出力関数を実現できるプログラマ
ブル・デバイスを提供すること。また、入力信号と出力
信号の組み合わせさえ与えれば、設計者が回路を設計す
ることなく所望の入出力特性を持ったデバイスを構成で
きる装置を提供すること。 【構成】 ハードウェアを変更せずにその入出力信号間
の関数を変更することができるプログラマブル・デバイ
ス101であって、階層型ニューラルネットワーク10
3と、荷重データを格納するための書き換え可能な荷重
メモリー102とを、同一チップ上に搭載している。
Description
【0001】
【産業上の利用分野】本発明は、ハードウェアを変更せ
ずにその入出力信号間の関数を変更することができるプ
ログラマブル・デバイス及びこのプログラマブル・デバ
イスを使用した装置に関する。
ずにその入出力信号間の関数を変更することができるプ
ログラマブル・デバイス及びこのプログラマブル・デバ
イスを使用した装置に関する。
【0002】
【従来の技術】任意の論理回路を構成できるデバイスと
してPLD(ProgrammbleLogic De
vice)と呼ばれるICが市販されている。PLDの
内部には、標準的な論理回路や順序回路などが、未結線
の状態で複数個搭載されている。使用者は、専用のツー
ルを用いて結線情報をPLDに書き込むことによって、
PLDの内部に所望の回路を構成することができる。
してPLD(ProgrammbleLogic De
vice)と呼ばれるICが市販されている。PLDの
内部には、標準的な論理回路や順序回路などが、未結線
の状態で複数個搭載されている。使用者は、専用のツー
ルを用いて結線情報をPLDに書き込むことによって、
PLDの内部に所望の回路を構成することができる。
【0003】また、回路や数式で表すことが困難な複雑
な入出力関数を実現するために、ルックアップテーブル
方式とよばれる方法が使われることがある。これは、一
般には複数の入力信号対をメモリーのアドレス信号に変
換し、それが指すメモリー番地に、人力信号に対応する
出力信号を予め格納しておくという方法である。この方
式を使えば、原理的には任意の入出力関数を得ることが
できる。
な入出力関数を実現するために、ルックアップテーブル
方式とよばれる方法が使われることがある。これは、一
般には複数の入力信号対をメモリーのアドレス信号に変
換し、それが指すメモリー番地に、人力信号に対応する
出力信号を予め格納しておくという方法である。この方
式を使えば、原理的には任意の入出力関数を得ることが
できる。
【0004】
【発明が解決しようとする課題】しかしながら、従来の
PLD又はルックアップテーブル方式では以下のような
問題があった。
PLD又はルックアップテーブル方式では以下のような
問題があった。
【0005】1.PLDは2値論理すなわちデジタル専
用のデバイスであり、アナログ回路を構成することはで
きない。PLDに相当するようなプログラマブルなアナ
ログデバイスは現在のところ存在しない。また、PLD
で実現できる回路は、内部に搭載されている回路の種類
や数に制限され、必ずしも任意の回路を構成できるもの
ではない。また、当然ながら、デジタルとアナログとを
兼用できるようなプログラマブルなデバイスも存在しな
い。
用のデバイスであり、アナログ回路を構成することはで
きない。PLDに相当するようなプログラマブルなアナ
ログデバイスは現在のところ存在しない。また、PLD
で実現できる回路は、内部に搭載されている回路の種類
や数に制限され、必ずしも任意の回路を構成できるもの
ではない。また、当然ながら、デジタルとアナログとを
兼用できるようなプログラマブルなデバイスも存在しな
い。
【0006】またルックアップテーブル方式では、入出
力信号対は当然離散的なものとなるが、これを緻密にす
るほど、メモリー使用量が急速に増大する。例えば、n
入力1出力の関数をルックアップテーブル方式で実現す
る場合を考えると、各入力信号をM分割してテーブル化
するためにはMn に比例したメモリー容量が必要とな
る。分割数M、入力信号数nの増大とともにいわゆる
「組み合わせの爆発」が起こるため、現実問題として複
雑な入出力関数を精度良く実現することは困難である。
力信号対は当然離散的なものとなるが、これを緻密にす
るほど、メモリー使用量が急速に増大する。例えば、n
入力1出力の関数をルックアップテーブル方式で実現す
る場合を考えると、各入力信号をM分割してテーブル化
するためにはMn に比例したメモリー容量が必要とな
る。分割数M、入力信号数nの増大とともにいわゆる
「組み合わせの爆発」が起こるため、現実問題として複
雑な入出力関数を精度良く実現することは困難である。
【0007】2.PLDに結線情報を書き込む為には、
設計者が予め机上で回路設計をする必要がある。論理回
路の設計の場合、入力信号と出力信号の組み合わせを規
定する真理値表が先に決まる場合が多く、これをさらに
回路に書き落とす作業は設計者にとって大きな負担であ
る。これはアナログ回路の設計についても言え、所望の
人出力特性を持ったアナログ回路を設計するためには、
回路構成や回路定数の決定などに高度な専門知識が要求
され、設計者の大きな負担となっている。
設計者が予め机上で回路設計をする必要がある。論理回
路の設計の場合、入力信号と出力信号の組み合わせを規
定する真理値表が先に決まる場合が多く、これをさらに
回路に書き落とす作業は設計者にとって大きな負担であ
る。これはアナログ回路の設計についても言え、所望の
人出力特性を持ったアナログ回路を設計するためには、
回路構成や回路定数の決定などに高度な専門知識が要求
され、設計者の大きな負担となっている。
【0008】そこで本発明は、 1.ハードウェアの変更なしに、アナログ、デジタルを
問わず任意の入出力関悌を実現できるプログラマブル・
デバイスを提供すること。
問わず任意の入出力関悌を実現できるプログラマブル・
デバイスを提供すること。
【0009】2.入力信号と出力信号の組み台わせさえ
与えれば、設計者が回路を設計することなく、所望の入
出力関数を上記プログラマブル・デバイス上に実現でき
るような装置を提供すること。
与えれば、設計者が回路を設計することなく、所望の入
出力関数を上記プログラマブル・デバイス上に実現でき
るような装置を提供すること。
【0010】を目的とする。
【0011】
【課題を解決するための手段】請求項1に記載の発明
は、ハードウェアを変更せずにその入出力信号間の関数
を変更することができるプログラマブル・デバイスであ
って、階層型ニューラルネットワークと、荷重データを
格納するための書き換え可能な荷重メモリーとを、同一
チップ上に搭載したことを特徴とする。
は、ハードウェアを変更せずにその入出力信号間の関数
を変更することができるプログラマブル・デバイスであ
って、階層型ニューラルネットワークと、荷重データを
格納するための書き換え可能な荷重メモリーとを、同一
チップ上に搭載したことを特徴とする。
【0012】請求項2に記載の発明は、請求項1に記載
のプログラマブル・デバイスと、複数組の荷重データを
格納した荷重ライブラリーメモリーとから構成されるこ
とを特徴とする。
のプログラマブル・デバイスと、複数組の荷重データを
格納した荷重ライブラリーメモリーとから構成されるこ
とを特徴とする。
【0013】請求項3に記載の発明は、請求項1に記載
のプログラマブル・デバイスと、与えられた入出力信号
対をニューラルネットワークに学習させ学習後の荷重を
前記荷重メモリーに格納する手段とから構成されること
を特徴とする。
のプログラマブル・デバイスと、与えられた入出力信号
対をニューラルネットワークに学習させ学習後の荷重を
前記荷重メモリーに格納する手段とから構成されること
を特徴とする。
【0014】請求項4に記載の発明は、請求項2に記載
の装置と、与えられた入出力信号対をニューラルネット
ワークに学習させ学習後の荷重を前記荷重メモリーまた
は前記荷重ライブラリーメモリーに格納する手段とから
構成されることを特徴とする。
の装置と、与えられた入出力信号対をニューラルネット
ワークに学習させ学習後の荷重を前記荷重メモリーまた
は前記荷重ライブラリーメモリーに格納する手段とから
構成されることを特徴とする。
【0015】
【作用】まず、本発明の中心となるニューラルネットワ
ークの関数近似能力について説明する。
ークの関数近似能力について説明する。
【0016】図5〜図9は、ニューラルネットワークの
関数近似能力を説明するために行ったコンピュータシミ
ュレーションの結果である。使ったネットワークは、図
10に示すような3層の階層型ネットワークであり、入
力層、中間層、出力層のユニット数は、各々4、20、
4である。また、人力層と中間層には、それぞれ1個づ
つバイアスユニットを設けている。学習アルゴリズムに
はバックプロパゲーションを使った。
関数近似能力を説明するために行ったコンピュータシミ
ュレーションの結果である。使ったネットワークは、図
10に示すような3層の階層型ネットワークであり、入
力層、中間層、出力層のユニット数は、各々4、20、
4である。また、人力層と中間層には、それぞれ1個づ
つバイアスユニットを設けている。学習アルゴリズムに
はバックプロパゲーションを使った。
【0017】図5は、ネットワークに2値論理関数を学
習させたものである。学習後のネットワークに信号X
1,X2を入力したときの出力Y1を示している。同図
(a)はOR、同図(b)はAND、同図(c)はEO
Rを示す。また、参考の為に出力の理想値も示してい
る。学習後のネットワークが2値論理演算器の機能を獲
得していることがわかる。
習させたものである。学習後のネットワークに信号X
1,X2を入力したときの出力Y1を示している。同図
(a)はOR、同図(b)はAND、同図(c)はEO
Rを示す。また、参考の為に出力の理想値も示してい
る。学習後のネットワークが2値論理演算器の機能を獲
得していることがわかる。
【0018】図6は、D/A変換の機能をネットワーク
に実現させたものである。4ビットの人力信号X1,X
2,X3,X4に対して出力信号Y1が0.0から1.
5の間で段階的に変化するように学習させた。理想値と
比較しても、ほぼ正確にD/A変換器として機能してい
ることがわかる。
に実現させたものである。4ビットの人力信号X1,X
2,X3,X4に対して出力信号Y1が0.0から1.
5の間で段階的に変化するように学習させた。理想値と
比較しても、ほぼ正確にD/A変換器として機能してい
ることがわかる。
【0019】図7は、逆にA/D変換の機能をネットワ
ークに実現させたものである。0.0から1.5の間で
設階的に変化する入力信号X1を4ビットの出力信号Y
1,Y2,Y3,Y4に変換している。理想値と比較し
ても、ほぼ正確にA/D変換器として機能していること
がわかる。
ークに実現させたものである。0.0から1.5の間で
設階的に変化する入力信号X1を4ビットの出力信号Y
1,Y2,Y3,Y4に変換している。理想値と比較し
ても、ほぼ正確にA/D変換器として機能していること
がわかる。
【0020】図8は、四則演算を学習させた結果であ
る。入力信号X1,X2に対する出力Y1を3次元的に
表示している。除算の場合に若干の誤差を生じている
が、その他はほぼ理想値に近い出力を得ている。
る。入力信号X1,X2に対する出力Y1を3次元的に
表示している。除算の場合に若干の誤差を生じている
が、その他はほぼ理想値に近い出力を得ている。
【0021】図9は、波形変換機能をネットワークに実
現したものである。横軸に入力信号X1、縦軸に出力信
号Y1をとり、ネットワークの入出力特性をプロットし
ている。つまり、入力Xに線形に比例する信号(たとえ
ば、鋸歯状波)を与えると、これが同図に示すような波
形に変換されてY1に出力されることになる。同図
(a)はサイン波、同図(b)は矩形波への変換を実現
したものである。
現したものである。横軸に入力信号X1、縦軸に出力信
号Y1をとり、ネットワークの入出力特性をプロットし
ている。つまり、入力Xに線形に比例する信号(たとえ
ば、鋸歯状波)を与えると、これが同図に示すような波
形に変換されてY1に出力されることになる。同図
(a)はサイン波、同図(b)は矩形波への変換を実現
したものである。
【0022】このように、ニューラルネットワークを用
いて、デジタル、アナログを問わず様々な入出力関数を
実現することができる。
いて、デジタル、アナログを問わず様々な入出力関数を
実現することができる。
【0023】原理的には、3層以上の階層型ネットワー
クで任意の有界な連続関数を近似することが可能である
(たとえば、Funahashi,K.:“On th
eApproximatic Realization
of Continuous Mappings b
y Neural Networks”,Neural
Networks,Vol.2,pp183−192
(1989)参照)。
クで任意の有界な連続関数を近似することが可能である
(たとえば、Funahashi,K.:“On th
eApproximatic Realization
of Continuous Mappings b
y Neural Networks”,Neural
Networks,Vol.2,pp183−192
(1989)参照)。
【0024】上記のようなニューラルネットワークの関
数近似機能をプログラマブル・デバイスに応用すれば、
アナログ、デジタルを問わず任意の入出力関数を実現で
きるデバイスを作ることができる。この際、工学的に重
要な点は、結合荷重の変更だけでネットワークの入出力
関数が変更できるということである。実際、上述した図
5〜図9は全て同一構造のネットワーク(図10参照)
が実現した異なる入出力特性の例であり、違いは結合荷
重の値だけである。使用していない入力ユニットまたは
出力ユニットは、それにつながっている結合荷重の値を
0に固定する事によって、無効にしている。
数近似機能をプログラマブル・デバイスに応用すれば、
アナログ、デジタルを問わず任意の入出力関数を実現で
きるデバイスを作ることができる。この際、工学的に重
要な点は、結合荷重の変更だけでネットワークの入出力
関数が変更できるということである。実際、上述した図
5〜図9は全て同一構造のネットワーク(図10参照)
が実現した異なる入出力特性の例であり、違いは結合荷
重の値だけである。使用していない入力ユニットまたは
出力ユニットは、それにつながっている結合荷重の値を
0に固定する事によって、無効にしている。
【0025】従って、ネットワークがハードウェア上に
構成されている場台でも、書き換え可能な記憶装置に荷
重を格納できるようにしておけば、結合荷重を変更する
だけで、任意の入出力関数を実現することができる。こ
れが、請求項1に記載の発明に対応している。
構成されている場台でも、書き換え可能な記憶装置に荷
重を格納できるようにしておけば、結合荷重を変更する
だけで、任意の入出力関数を実現することができる。こ
れが、請求項1に記載の発明に対応している。
【0026】結合荷重を格納する記憶装置(荷重メモリ
ー)にRAMやレジスターやフラッシュメモリーなど、
低電庄で書き込み可能なデバイスを使えば、オンシステ
ムでの更新が可能となるので、一連の処理のなかで同一
のデバイスに異なる機能を持たせることができ、ハード
ウェアの削減にもつながる。
ー)にRAMやレジスターやフラッシュメモリーなど、
低電庄で書き込み可能なデバイスを使えば、オンシステ
ムでの更新が可能となるので、一連の処理のなかで同一
のデバイスに異なる機能を持たせることができ、ハード
ウェアの削減にもつながる。
【0027】次に、使用するメモリーの容量をルックア
ッブテーブル方式の場合と比較してみる。一例として、
図8(c)に示した乗算器の場台を考えてみる。ルック
アッブテーブル方式の場合、入力信号X1,X2を各々
100分割し出力値を4バイトのデジタル信号でメモリ
ーに格納するならば、必要なメモリー容量は40000
バイトになる。これに対し、ニューラルネットワークで
は、中間層のニューロン数が4のネットワークによって
任意の精度で乗算器を実現できることが分かっており
(戸田、船橋、臼井:“多層ニューラルネットワークに
よる多項式関数の解析的実現”,1990信学秋大,A
−55,分冊1.55(1990)参照))、この場合
に必要となる荷重メモリーの容量は、荷重一つを4バイ
トで表したとしても計48バイトにしかならない。
ッブテーブル方式の場合と比較してみる。一例として、
図8(c)に示した乗算器の場台を考えてみる。ルック
アッブテーブル方式の場合、入力信号X1,X2を各々
100分割し出力値を4バイトのデジタル信号でメモリ
ーに格納するならば、必要なメモリー容量は40000
バイトになる。これに対し、ニューラルネットワークで
は、中間層のニューロン数が4のネットワークによって
任意の精度で乗算器を実現できることが分かっており
(戸田、船橋、臼井:“多層ニューラルネットワークに
よる多項式関数の解析的実現”,1990信学秋大,A
−55,分冊1.55(1990)参照))、この場合
に必要となる荷重メモリーの容量は、荷重一つを4バイ
トで表したとしても計48バイトにしかならない。
【0028】一般には、実現する関数の非線形性が増す
ほど、ニューラルネットワークの中間層には多くのユニ
ットが必要となる。一方、ルックアップテーブル方式の
場合も、入力信号の分割数を増やして分解能を上げる必
要がある。使用するメモリ容量の増え方は、前者では中
間層ユニット数に比例し、後者では分割数のn乗に比例
する。多くの場台、ニューラルネットワークによる関数
実現の方が、ルックアッブテーブル方式によるものより
も、はるかに少ないメモリー容量でかつ高精度に関数を
近似することができる。
ほど、ニューラルネットワークの中間層には多くのユニ
ットが必要となる。一方、ルックアップテーブル方式の
場合も、入力信号の分割数を増やして分解能を上げる必
要がある。使用するメモリ容量の増え方は、前者では中
間層ユニット数に比例し、後者では分割数のn乗に比例
する。多くの場台、ニューラルネットワークによる関数
実現の方が、ルックアッブテーブル方式によるものより
も、はるかに少ないメモリー容量でかつ高精度に関数を
近似することができる。
【0029】また、様々な標準的な入出力関数について
その結合荷重を予め用意しておいて、これをメーカーが
ライブラリーとして提供すれば、設計者の負担はさらに
軽減される。この場合、設計者は、ライブラリーが格納
された記憶装置(荷重ライブラリーメモリー)から所望
の入出力関数を実現する荷重を選んで読み出し、荷重メ
モリーに書き込むだけでよい。従来、回路設計者は、機
能ごとに異なるICを用意したり、回路を設計した上で
PLDに書き込んだりしたりしていた。これに比べて本
発明の場合には設計者の負担が大幅に軽減される。これ
が請求項2に記載の発明に対応している。
その結合荷重を予め用意しておいて、これをメーカーが
ライブラリーとして提供すれば、設計者の負担はさらに
軽減される。この場合、設計者は、ライブラリーが格納
された記憶装置(荷重ライブラリーメモリー)から所望
の入出力関数を実現する荷重を選んで読み出し、荷重メ
モリーに書き込むだけでよい。従来、回路設計者は、機
能ごとに異なるICを用意したり、回路を設計した上で
PLDに書き込んだりしたりしていた。これに比べて本
発明の場合には設計者の負担が大幅に軽減される。これ
が請求項2に記載の発明に対応している。
【0030】なお、荷重を格納するために必要なメモリ
一容量は、例えば図10のネツトワークの場合、一つの
荷重を4バイトで表したとしても合計736バイトにす
ぎず、1.2メガバイトのフロッピーディスクに150
0種以上の荷重を格納できる。つまり、安価で豊富なラ
イブラリーを提供することができる。
一容量は、例えば図10のネツトワークの場合、一つの
荷重を4バイトで表したとしても合計736バイトにす
ぎず、1.2メガバイトのフロッピーディスクに150
0種以上の荷重を格納できる。つまり、安価で豊富なラ
イブラリーを提供することができる。
【0031】ライブラリーに用意されていない関数を実
現したい場台には、ニューラルネットワークを学習させ
るツールがこれをサポートする。ニューラルネットワー
クの学習に必要な情報は、人力信号と出力信号の組み合
わせであり、それをどのような数式で、あるいはどのよ
うな回路で実現するのかということについて、設計者は
全く考える必要がない。
現したい場台には、ニューラルネットワークを学習させ
るツールがこれをサポートする。ニューラルネットワー
クの学習に必要な情報は、人力信号と出力信号の組み合
わせであり、それをどのような数式で、あるいはどのよ
うな回路で実現するのかということについて、設計者は
全く考える必要がない。
【0032】したがって、ニューラルネットワークの学
習を行うツールと、学習後の荷重を荷重メモリーや荷重
ライブラリーメモリーに格納する手段とを提供すれば、
設計者は回路設計をすることなく所望の入出力関数をデ
バイス上に実現することができる。これにより設計者の
負担は大幅に削減される。これが請求項3,4に記載の
発明に対応している。
習を行うツールと、学習後の荷重を荷重メモリーや荷重
ライブラリーメモリーに格納する手段とを提供すれば、
設計者は回路設計をすることなく所望の入出力関数をデ
バイス上に実現することができる。これにより設計者の
負担は大幅に削減される。これが請求項3,4に記載の
発明に対応している。
【0033】
【実施例】以下、図面を参照しながら実施例に基づいて
本発明の特徴を具体的に説明する。
本発明の特徴を具体的に説明する。
【0034】図1は、本発明のプログラマブル・デバイ
スの実施例を示すブロックである。。同図において、1
01はハードウェアで構成されたニューラルネットワー
ク103と荷重メモリー102とを同一チップ上に搭載
したプログラマブル・デバイスである。荷重メモリー1
02に格納された荷重データはニューラルネットワーク
103に与えられる。
スの実施例を示すブロックである。。同図において、1
01はハードウェアで構成されたニューラルネットワー
ク103と荷重メモリー102とを同一チップ上に搭載
したプログラマブル・デバイスである。荷重メモリー1
02に格納された荷重データはニューラルネットワーク
103に与えられる。
【0035】ニューラルネットワーク103は、入力信
号IN0−INnを出力信号OT0〜OTmに変換す
る。入出力信号間の関数は、荷重データによって一意に
決まる。
号IN0−INnを出力信号OT0〜OTmに変換す
る。入出力信号間の関数は、荷重データによって一意に
決まる。
【0036】荷重メモリー102は、書き換え可能なメ
モリーデバイスによって実現されている。たとえばEE
PROM,EPROM,RAM,レジスター、フラッシ
ュメモリーなどである。アドレス信号A0〜Akで指定
されるメモリー番地に対して、D0〜Dr端子から荷重
を書き込むことかできる。荷重メモリー102の内容を
書き換えることによって、チップ101の入出力関数を
変更することができる。
モリーデバイスによって実現されている。たとえばEE
PROM,EPROM,RAM,レジスター、フラッシ
ュメモリーなどである。アドレス信号A0〜Akで指定
されるメモリー番地に対して、D0〜Dr端子から荷重
を書き込むことかできる。荷重メモリー102の内容を
書き換えることによって、チップ101の入出力関数を
変更することができる。
【0037】図2は、図1に示すプログラマブル・デバ
イスを使用した装置の構成例を示すブロック図である。
これは、プログラマブル・デバイス101と荷重ライブ
ラリーメモリー201とから構成される装置である。
イスを使用した装置の構成例を示すブロック図である。
これは、プログラマブル・デバイス101と荷重ライブ
ラリーメモリー201とから構成される装置である。
【0038】荷重ライブラリーメモリー201には、ニ
ューラルネットワーク1個分の荷重データ(これを1組
と数える)が複数組格納されている。外部から荷重ライ
ブラリーメモリー201に選択信号を与えると、選択さ
れた荷重データ一組が荷重ライブラリーメモリー201
から読み出され、プログラマブル・デバイス101の荷
重メモリー102に書き込まれる。
ューラルネットワーク1個分の荷重データ(これを1組
と数える)が複数組格納されている。外部から荷重ライ
ブラリーメモリー201に選択信号を与えると、選択さ
れた荷重データ一組が荷重ライブラリーメモリー201
から読み出され、プログラマブル・デバイス101の荷
重メモリー102に書き込まれる。
【0039】荷重ライブラリーメモリー201への選択
信号は、図示しないCPUやスイッチなどによって与え
られる。CPUから選択信号を与える場合には、CPU
側のプログラムによって、プログラマブル・デバイス1
01の機能変更をスケジューリングすることができる。
つまり、一連の処理の中で、同一のプログラマブル・デ
バイス101を全く異なる機能素子として使うことがで
きる。
信号は、図示しないCPUやスイッチなどによって与え
られる。CPUから選択信号を与える場合には、CPU
側のプログラムによって、プログラマブル・デバイス1
01の機能変更をスケジューリングすることができる。
つまり、一連の処理の中で、同一のプログラマブル・デ
バイス101を全く異なる機能素子として使うことがで
きる。
【0040】図3は、図1に示すプログラマブル・デバ
イスを使用した装置の他の構成例を示すブロック図であ
る。これは、プログラマブル・デバイス101と、ニュ
ーラルネットワーク103に学習をさせ学習後の荷重デ
ータを荷重メモリー102に格納するための装置301
とから構成される装置である。
イスを使用した装置の他の構成例を示すブロック図であ
る。これは、プログラマブル・デバイス101と、ニュ
ーラルネットワーク103に学習をさせ学習後の荷重デ
ータを荷重メモリー102に格納するための装置301
とから構成される装置である。
【0041】装置301は、例えばパソコン、ワークス
テーションなどの汎用プロセッサである。この装置30
1で所望の入出力関数を実現するネットワークを学習に
よって構築する。学習後の荷重は、メモリーカードやフ
ロッピーなどの着脱可能な記憶媒体や、通信ケーブル等
によって荷重メモリー102に格納される。
テーションなどの汎用プロセッサである。この装置30
1で所望の入出力関数を実現するネットワークを学習に
よって構築する。学習後の荷重は、メモリーカードやフ
ロッピーなどの着脱可能な記憶媒体や、通信ケーブル等
によって荷重メモリー102に格納される。
【0042】図4は、図1に示すプログラマブル・デバ
イスを使用した装置の更に他の構成例を示すブロック図
である。これは、プログラマブル・デバイス101と、
荷重ライブラリーメモリー201と、ニューラルネット
ワーク103に学習をさせ学習後の荷重データを荷重メ
モリー102または荷重ライブラリーメモリ201に格
納するための装置301とから構成される装置である。
イスを使用した装置の更に他の構成例を示すブロック図
である。これは、プログラマブル・デバイス101と、
荷重ライブラリーメモリー201と、ニューラルネット
ワーク103に学習をさせ学習後の荷重データを荷重メ
モリー102または荷重ライブラリーメモリ201に格
納するための装置301とから構成される装置である。
【0043】装置301は、例えばパソコン、ワークス
テーションなどの汎用プロセッサである。この装置30
1で所望の人出力関数を実現するネットワークを学習に
よって構築する。学習後の荷重は、メモリーカードやフ
ロッピーなどの着脱可能な記憶媒体や、通信ケーブル等
によって荷重ライブラリーメモリー201に格納され
る。その他の機能は、図3に示す構成例と同じであるの
で説明を省略する。
テーションなどの汎用プロセッサである。この装置30
1で所望の人出力関数を実現するネットワークを学習に
よって構築する。学習後の荷重は、メモリーカードやフ
ロッピーなどの着脱可能な記憶媒体や、通信ケーブル等
によって荷重ライブラリーメモリー201に格納され
る。その他の機能は、図3に示す構成例と同じであるの
で説明を省略する。
【0044】
【発明の効果】本発明によれば以下の効果を奏する。
【0045】(1)荷重メモリーを書き換えるだけでハ
ードウェアの変更なしに、アナログ、アジタルを問わず
任意の人出力関数をデバイス上に実現することができ
る。また、一連の処理の中で、同一のデバイスに異なる
機能をもたせることができる。
ードウェアの変更なしに、アナログ、アジタルを問わず
任意の人出力関数をデバイス上に実現することができ
る。また、一連の処理の中で、同一のデバイスに異なる
機能をもたせることができる。
【0046】(2)標準的な入出力関数について子め荷
重をライブラリー化しておけば、設計者は所望のものを
遺択するだけでよい。また、安価で豊富なライブラリー
を提供することができる。
重をライブラリー化しておけば、設計者は所望のものを
遺択するだけでよい。また、安価で豊富なライブラリー
を提供することができる。
【0047】(3)入力信号と出力信号の組み合わせさ
え与えれば、設計者が回路を設計することなく、所望の
入出力特性を持ったデバイスが構成される。
え与えれば、設計者が回路を設計することなく、所望の
入出力特性を持ったデバイスが構成される。
【図1】 本発明のプログラマブル・デバイスの実施例
を示すブロックである。
を示すブロックである。
【図2】 図1に示すプログラマブル・デバイスを使用
した装置の構成例を示すブロック図である。
した装置の構成例を示すブロック図である。
【図3】 図1に示すプログラマブル・デバイスを使用
した装置の他の構成例を示すブロック図である。
した装置の他の構成例を示すブロック図である。
【図4】 図1に示すプログラマブル・デバイスを使用
した装置の更に他の構成例を示すブロック図である。
した装置の更に他の構成例を示すブロック図である。
【図5】 2値論理演算器の実現例を示す説明図であ
る。
る。
【図6】 D/A変換器の実現例を示す説明図である。
【図7】 D/A変換器の他の実現例を示す説明図であ
る。
る。
【図8】 四則演算器の実現例を示す説明図である。
【図9】 波形変換器の実現例を示す説明図である。
【図10】 シミュレーションに使ったニューラルネッ
トワークを示す説明図である。
トワークを示す説明図である。
101…プログラマブル・デバイス、102…荷重メモ
リー、103…ニューラルネットワーク、201…荷重
ライブラリーメモリー、301…装置
リー、103…ニューラルネットワーク、201…荷重
ライブラリーメモリー、301…装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 王 征成 福岡県福岡市博多区東比恵2−9−29 ア ポロ電子工業株式会社福岡TCセンター内
Claims (4)
- 【請求項1】 ハードウェアを変更せずにその入出力信
号間の関数を変更することができるプログラマブル・デ
バイスであって、 階層型ニューラルネットワークと、荷重データを格納す
るための書き換え可能な荷重メモリーとを、同一チップ
上に搭載したことを特徴とするプログラマブル・デバイ
ス。 - 【請求項2】 請求項1に記載のプログラマブル・デバ
イスと、複数組の荷重データを格納した荷重ライブラリ
ーメモリーとから構成されることを特徴とする装置。 - 【請求項3】 請求項1に記載のプログラマブル・デバ
イスと、与えられた入出力信号対をニューラルネットワ
ークに学習させ学習後の荷重を前記荷重メモリーに格納
する手段とから構成されることを特徴とする装置。 - 【請求項4】 請求項2に記載の装置と、与えられた入
出力信号対をニューラルネットワークに学習させ学習後
の荷重を前記荷重メモリーまたは前記荷重ライブラリー
メモリーに格納する手段とから構成されることを特徴と
する装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5332848A JPH07192073A (ja) | 1993-12-27 | 1993-12-27 | プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5332848A JPH07192073A (ja) | 1993-12-27 | 1993-12-27 | プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07192073A true JPH07192073A (ja) | 1995-07-28 |
Family
ID=18259478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5332848A Pending JPH07192073A (ja) | 1993-12-27 | 1993-12-27 | プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07192073A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
JP2018014114A (ja) * | 2010-07-07 | 2018-01-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューロプロセッサにおける交換可能なシナプス荷重記憶装置に関する方法及びシステム |
-
1993
- 1993-12-27 JP JP5332848A patent/JPH07192073A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
JP2018014114A (ja) * | 2010-07-07 | 2018-01-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューロプロセッサにおける交換可能なシナプス荷重記憶装置に関する方法及びシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07500198A (ja) | ニューラル・ネットワーク・アーキテクチャー | |
JP3172352B2 (ja) | ニューラルネットワーク回路 | |
KR20010053625A (ko) | 곱셈기를 사용하지 않는 디지털 필터링 | |
JPH07192073A (ja) | プログラマブル・デバイス及びプログラマブル・デバイスを使用した装置 | |
US5563812A (en) | Filter device including analog and digital circuitry | |
CN115951937A (zh) | 处理器中向量指令填表和查表方法、装置及电子设备 | |
US5448506A (en) | Multiplication operational circuit device | |
US7038965B2 (en) | Pointer generator for stack | |
JP3024156B2 (ja) | 可変長データメモリインタフェース回路 | |
CA2055315C (en) | System for performing fast data access operations | |
JPS61220025A (ja) | 同一ビツト計数装置 | |
JP3216152B2 (ja) | Min回路およびmax回路ならびにそれらの接続方法 | |
JPS629275A (ja) | 2進レジスタを利用する測定方法および装置 | |
JPH06223052A (ja) | 多体問題用計算装置及び計算方法 | |
JPH0741213Y2 (ja) | Firフィルタ | |
JPS5922981B2 (ja) | デジタル信号レベル制御回路 | |
KR950011034B1 (ko) | 난수 생성용 조합 논리회로 | |
JP2970822B2 (ja) | タイムスロット入替え回路 | |
JPH0234053B2 (ja) | ||
JPS63188250A (ja) | 任意語長記憶回路 | |
JP2642731B2 (ja) | アドレス発生回路 | |
JPH0687259B2 (ja) | 画像転置方法と装置 | |
JPH043874B2 (ja) | ||
JPS6168636A (ja) | デ−タ処理装置 | |
JPS6029865A (ja) | 論理シミュレーション装置 |