JPH0713951A - ニューラルネットワークを訓練する方法 - Google Patents

ニューラルネットワークを訓練する方法

Info

Publication number
JPH0713951A
JPH0713951A JP5244173A JP24417393A JPH0713951A JP H0713951 A JPH0713951 A JP H0713951A JP 5244173 A JP5244173 A JP 5244173A JP 24417393 A JP24417393 A JP 24417393A JP H0713951 A JPH0713951 A JP H0713951A
Authority
JP
Japan
Prior art keywords
neural network
training
node
weighting function
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5244173A
Other languages
English (en)
Inventor
Toru Oki
亨 大木
Phillip Paorera
フィリップ パオレラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Electronics Inc
Original Assignee
Sony Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Electronics Inc filed Critical Sony Electronics Inc
Publication of JPH0713951A publication Critical patent/JPH0713951A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 文字認識の精度を向上させる改良型ニューラ
ルネットワークの訓練方法を提供する。 【構成】 特定の文字を認識するように設計された本発
明のニューラルネットワークにおいては、認識すべき文
字の画像である第1の隠れたノードのための初期のタッ
プ重みが提供される。この重みの組の逆のもの(アジテ
ィブインバース)が第2の隠れたノードのためのタップ
重みとして用いられる。もし使用されるならば、第3の
ノードがランダムノイズで初期化される。それから、ニ
ューラルネットワークがバックプロパゲーションを用い
て訓練される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は一般的にはニューラルネ
ットワークの分野に関する。さらに特定的には、本発明
は所定の組からシンボルまたは文字を認識し検証するニ
ューラルネットワークを訓練する方法およびその装置に
関する。本発明はまた円形状に配列された文字を認識す
るための座標回転技法(rotation technique) を用いる
が、そのような用途に限定されるものではない。
【0002】〔関連出願の記述〕本発明に関連する出願
を下記に示す。本発明は、それぞれ同じ日(1992年
10月1日)に米国特許庁に出願され、本願出願と同じ
共通の所有者によって我が国に出願された下記の出願に
関係している。 (1)米国出願シリアル番号:07/955,563 米国出願名称“Training Method for Neural Network U
sing Width Variation" 発明者:Toru Oki(大木亨) 我が国特許出願整理番号:S93037568 (1)、(2)、(3)を複合 (2)米国出願シリアル番号:07/955,522 米国出願名称“Training Method for Neural Network U
sing Offset Training Characters" 発明者:Toru Oki(大木亨) 我が国特許出願整理番号:S93037568 (1)、(2)、(3)を複合 (3)米国出願シリアル番号:07/955,534 米国出願名称“Neural Network for Character Recogni
tion and Verification" 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037568 (1)、(2)、(3)を複合 (4)米国出願シリアル番号:07/955,555 米国出願名称“Neural Network for Character Recogni
tion of Rotated Characters" 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037622
【0003】
【従来の技術】文字認識はニューラルネットワークの重
要な用途の一つである。文字認識の用途としては、資料
内のテキストの認証に用いられているばかりでなく、工
業的な用途におけるシンボルおよび文字の認識としても
用いられている。本発明は特に機械によって発生した文
字に好適に適用される。すべての用途において、文字認
識における最適な精度が非常に重要である。また、重要
なこととして、ネットワークの構造が簡単であること、
訓練が容易であること、使用される訓練順序(トレーニ
ングシーケンス)における訓練が独立していること、ノ
イズの存在においてロバストネス(robustness)であるこ
と、および、ネットワークを一般化させる能力があるこ
とである。ニューラルネットワークの性能および訓練に
影響を与える種々の因子の扱いについての概要および背
景が、論文:著者、Patrick K. Simpson、題名、"Found
ations of Neural Networks"、Artificial Neural Netw
orksから刊行:Paradigms, Applications and Hardware
Implementations, Sanchez-Sinencio、他編集、IEEE P
ress,1992, USA、に見いだされる。
【0004】従来のニューラルネットワークにおいて
は、ハードウエアおよびソフトウエアの両者について、
ニューラルネットワークに文字を表すものを提供するこ
とによって文字を認識させている。内部重み関数が用い
られて入力を重み付けし、ニューラルネットワークを訓
練するための訓練過程に基づいて最も文字に近いものを
表す出力を生成させる。訓練過程の品質を向上させるこ
とが現在の研究の主体(large body)であり、現在、精度
を決定する因子である。ここで精度とはその精度によっ
てニューラルネットワークが文字を同定できるという精
度である。工業的な用途において、例えばシリアル(連
続)番号を表す文字の正しい認識は、生産管理において
重要(クリティカル)である。
【0005】
【発明が解決しようとする課題】ある工業的な用途にお
いては、文字の認識はその文字が正しい程度に検証され
ることは重要でない。そのようなものとしてはコンパク
トディスクの製造過程を考えることができる。この場
合、ビデオ、オーディオ、またはコンピューターデータ
を実際に符号化する前に、ディスクにプログラムの本体
を表すシリアル番号が刻印される。文字を認識する装置
は、多くのディスクのバッチの各々が、正しいシリアル
番号がディスクにシリアル番号が付されていることを検
証する装置ほど重要ではない場合が多い。その一方で、
ラベルおよびシリアル番号が刻印されているコンパクト
ディスクはプログラムの内容と干渉して(一致しない
で)符号化されることがある(例えば、アーティストの
ミュージックが、ラベルが不正確についているディスク
に符号化される)。
【0006】したがって、本発明は、文字またはシンボ
ルについて引き続く検証を提供し、検証ネットワークの
ための訓練技法を提供することによって、文字またはシ
ンボルを認識する装置の精度を向上させコンバージェン
ス(収束性)を高め、そして一般化能力を高めることを
目的とする。さらに本発明は、シリアル番号またはこれ
に類するデータの検証を迅速かつ簡単に提供することに
用いられる。また、本発明の訓練技法を用いることによ
って検証ネットワークの訓練が向上する(強化され
る)。
【0007】本発明の目的は、文字またはシンボルの認
識の精度を向上させる改良型のニューラルネットワーク
の訓練方法および装置を提供することにある。本発明の
利益は認識の精度が向上することである(強化されるこ
とである)。本発明の他の目的は、ニューラルネットワ
ークを訓練するための改良型方法を提供することにあ
る。本発明の訓練技法の利点は、高い能力を有するロバ
スト(robust)なニューラルネットワークを生成し、一般
化する。
【0008】本発明のこれらおよび他の目的、利益およ
び特徴は本発明に関する下記の記述の考慮に基づき、当
業者にとって明瞭となる。
【0009】
【課題を解決するための手段】本発明のニューラルネッ
トワークは、特別の文字を認識するために設計されてお
り、認識すべき文字の画像の第1の隠れたノードのため
の初期のタップ重みが提供される。この重みの組に対す
るアジティブインバース(additive inverse)が第2の隠
れたノード関する重みとして用いられる。もし用いられ
る場合、第3のノードがランダムノイズによって初期化
される。このニューラルネットワークはしたがって、バ
ックプロパゲーションによって訓練される。
【0010】本発明の第1の観点によれば、本発明の入
力アレイP(K)によって表されるシンボルを認識する
ためニューラルネットワークを訓練する方法が提供され
るのであり、該ニューラルネットワークを訓練する方法
は、上記ニューラルネットワークの中間層を提供し、該
入力アレイP(K)が上記ニューラルネットワークによ
って認識されるべきシンボルを表すものを有するとき、
該入力アレイP(K)と非常に相関が深い値に中間のノ
ードと関連する重み関数W1 (K)を初期化し、そして
訓練(トレーニング)シーケンスを前記ニューラルネッ
トワークに印加する諸段階を有する。上記重み関数W1
(K)は下記式で定義される。
【0011】
【数8】
【0012】第2の中間ノードと関連する第2の関数W
2 (K)は、前記入力アレイP(K)が上記ニューラル
ネットワークによって認識されるべきシンボルを示すも
のを含むとき該入力アレイP(K)と非常に関連のない
値に初期化される。第3の中間ノードと関連する第3の
重み関数W3 (K)がランダムな値に初期化されうる。
上記第2の関数W2 (K)および第3の重み関数W
3 (K)を下記式で定義する。
【0013】
【数9】
【0014】
【数10】
【0015】新規であるべきと信じられている本発明の
上記特徴が、添付した請求の範囲に特定的に記述されて
いる。しかしながら、本発明はそれ自身、方法および装
置の両者に関連づけた動作についてさらに他の目的およ
び利益に関連しており、添付した図面に関連付けた下記
の記述を参照づけることによって、最良に理解されるの
である。
【0016】
【実施例】本発明は種々の異なる形態における実施例と
してとりうるが、図面に図解されており、そして詳細な
特定的な実施例に記述されており、その開示が本発明の
原理の一例として考慮すべきことが理解され、そして本
発明が図示され記述された特定的な実施例にのみ限定さ
れることを意図していないことが理解される。本発明の
記述のために、用語「シンボルおよび文字」は、例えば
数字文字(レター)、グラフィックシンボル、アルファ
ベットシンボルその他などの認識可能な複数のメンバー
(要素)の一組のある一つのメンバーを表すように意図
されているものによって幾分交換可能に用いられる。こ
れらの用語はまた工業的な用途において有益な画像を包
含することが意図されており、工業的な用途の例として
は、例えばニューラルネットワークによって有益に認識
されうるギア(歯車)の画像、集積回路チップの画像、
サブアッセンブリまたは一部の画像、またはその他の画
像またはパターンなどである.
【0017】図1を参照して述べると、図1には本発明
の工業的な用途の一例が示されている。そのような用途
は、例えばシリコンウェーハ、回路基板、サブアッセン
ブリ、コンパクトディスクなどである部分の上に刻印さ
れたシリアル番号を認識するために用いられうる。もち
ろん、他の用途も可能である。この例示においては、部
分10から認識されるべきものとして6桁の数字のシリ
アル番号を仮定しており、その部分10としては本発明
の好適な実施例においてはコンパクトディスクまたは半
導体製造のためのシリコンウェーハである。この部分1
0はビデオカメラまたは他の走査装置12によって特定
的な位置において観測される。
【0018】部分10がコンパクトディスクの場合、シ
リアル番号がそのディスクの中央の穴のまわりに配置さ
れている。このことは文字の認識を幾分困難にさせる。
カメラの出力信号が極座標変換器(polar converter)1
4によって処理され、それによって文字の配置が中央の
穴の周囲に配置された円形状の配置から、直線状に配置
された文字の列に変換される。これについては、関連出
願として、参照符号によって一体化されている上記関連
づけた出願(4)に十分に記述されている。画像が円形
状に配置されているか否かに関わらず、上記した出願に
記述されている区分化および中心化処理は、認識および
検証装置の性能を向上させるために用いられる。それか
ら、文字の直線状の順序(シーケンス)がマトリクスま
たはアレイ16(またマトリクスまたはアレイの集合)
として示され、そのマトリクスまたアレイは、これまで
知られている方法において文字のそれぞれを示すもので
ある。代表的には、そのマトリクスはピクセルの値によ
って組み合わされており、そのピクセルの値は観測され
ている文字を表す。例えばここで、図2に示されている
文字「A」を示す場合を考える。この表現において、本
発明によって処理されたものとして実際の文字から発生
されたものに関して、明るいピクセルは@によって示さ
れており、暗い画像が小さなドットとして示されてい
る。別の番号が便宜的に付加されている。この文字は下
記の表によって示されている値の一次元のピクセルアレ
イP(K)によってコンピュータファイル内に示されて
いる(別の番号は便宜的に付加している)。
【0019】
【表1】
【0020】上記表1のアレイにおいて、各列が26ビ
ットで38列が示されており、P(1)が上部左隅にあ
り、P(2)がこのP(1)のすぐ右にあり以下同じよ
うに並んでおり、P(988)が右下の角にある。本発
明の実施例においては1または0のいずれかであるピク
セルの値がディジタル値である場合を扱っているが、本
発明のニューラルネットワークは他の適切な特性または
ピクセルの明るさをあらわすアナログの値についても動
作しうる。
【0021】複数のアレイPによって表されたものとし
てのマトリクス16は、入力として複数またはより少な
い数の従来のニューラルネットワーク20に用いられて
おり、このニューラルネットワークは所定の文字または
シンボルの組(例えば、アルファベットおよび数値0〜
9)から文字またはシンボルの各々を認識するために訓
練される。
【0022】テスト例についてのニューラルネットワー
ク20が図3に図解されており、そして、このニューラ
ルネットワークは上述したアレイP(K)などの988
ピクセルのアレイによって表される988ピクセル(K
=988)を有する。それらのピクセルの各々がそのニ
ューラルネットワークにおいて分離されている重みに割
り付けられており、それぞれがそれらと関連する8個の
中間ノードの各々に結合されている。それらの中間ノー
ドの各々が出力ノードに接続されている。この実施例に
おいて、そのような出力ノードが14個用いられてお
り、それによって任意の14個の文字が認識されうる。
従来知られているバックプロバゲーションまたは訓練技
法がこのニューラルネットワーク20を訓練するために
用いられる。図示の例においてシリアル番号のそれぞれ
の文字がニューラルネットワーク20によって連続的に
分析され、例えばシリアル番号を構成する6桁の文字の
シーケンス(順序列)が生成される。この好適な実施例
において11桁の文字のシリアル番号がニューラルネッ
トワーク20に連続的に11個のアレイP(K)を印加
することによって認識される。
【0023】再び図1を参照して述べると、もし文字が
ニューラルネットワーク20によって正しく認識された
場合、正しいシリアル番号が出力される。この出力はそ
れから下記に述べるように、ニューラルネットワークの
第2の組によって検証される。図1に例として示したよ
うに、ニューラルネットワーク20から出力されるシリ
アル番号は6桁の文字のコードである。もちろん、一般
的には任意の数の文字も処理できる。この例示における
シリアル番号を検証するため、認識ニューラルネットワ
ーク30(301 、302 、303 、30a 、30b
30c )がシリアル番号の6桁の文字の各々に対応して
選択される。そのようなニューラルネットワークのそれ
ぞれには解析のためのマトリクス161 、162 、16
3 、16 a 、16b 、16c が設けられている。マトリ
クス161 はマトリクス16に維持されている文字
「1」を示すものを含む。マトリクス162 、163
16a、16b 、16c も同様にマトリクス16から文
字「2」、「3」、「a」、「b」および「c」を示す
ものを含んでいる。従って文字またはシンボルの組がN
個の文字またはシンボルを有する場合、N個のそのよう
なニューラルネットワークが選択を可能にするように構
成されている。
【0024】これらのニューラルネットワーク30の各
々はニューラルネットワーク20よりも構成が実質的に
簡単になっており、また各々が文字またはシンボルの組
の単一のメンバー(要素)を認識するように訓練され
る。つまり、ニューラルネットワーク30の各々が単一
の文字のみ認識するように訓練されているのであって、
そのような文字そのものではない。それゆえニューラル
ネットワーク30b は、解析される文字「b」であるか
どうかに対する答え、つまり、「イエス」または「ノ
ー」を与えるように訓練される。そのように行うため、
ニューラルネットワークは、もし入力が文字「b」の画
像である場合に「b」が正しい答えであり、そして、も
し入力が「a」、「c」〜「z」、または「0」〜
「9」についての画像である場合には、「b」でない
が、正確な答えであるように教示される。それゆえ、ニ
ューラルネットワーク30b の出力は、「b」または
「b」でないのいずれかである。(当業者はニューラル
ネットワークの出力が純粋な2進の値ではなく、むしろ
最大の制御(the greatest control)である出力であると
理解されるであろう。)もちろん、等価的な2進数の出
力が発生されるのであって、そこでは、例えば、「1」
の出力が特別の文字が検証されたことを示し、そして
「0」の出力が特別の文字が検証されないことを表す。
【0025】もしニューラルネットワークが文字のそれ
ぞれを固有に検証する場合、シリアル番号は高い信頼性
で正確に認知されていると考えられている。もし、1つ
または複数のシリアル番号から抽出されたシンボルが検
証されない場合、他の手段がエラー救済を提供するため
にとられる。本発明においては、ニューラルネットワー
ク30が小さく、そしてその訓練が特別の単一の文字に
対して非常に特定的であるから、処理速度が非常に早く
信頼性が高い。
【0026】図4は、本発明のテストに用いられるニュ
ーラルネットワーク30の構成例を示す図である。この
構成はニューラルネットワーク20として同じ988個
のピクセルアレイP(K)を受け入れる。これらのピク
セルは、重みづけられそして中間ノードの組に印加され
る。この中間ノードの組は2または3の中間ノードのみ
を有している(図4においては中間ノードの組が3の場
合を示している)。これらの中間ノードの重みは、二つ
のノードに対する出力を生成するために用いられるもの
であり、これらのノードはこのネットワークと関連する
文字が検証されているか、または検証されていないかを
示している。このネットワークは簡単で、迅速でそして
比較的容易に実現できる。
【0027】ニューラルネットワーク30によって検証
されるべき文字に依存して、ニューラルネットワークの
重みが、後述するように初期化されるとき、2または3
の中間(隠れた)ノードの何れかが用いられうる。図4
は3つのノードの場合について示している。しかしなが
ら、他の文字と過剰に重複をしないような非常に多くの
文字が2つの中間のノードを用いて検証されうる。一般
に、3つのノードを必要とするそれらの文字は経験的に
決定されうる。経験によれば、そのような文字は検査に
よって決定されうる。しかしながら、その処理は、たと
えば、すべての可能性のある文字の組み合わせについて
のドットの生成を用いることによって自動的に行われう
る。所定のしきい値(この値は経験的に決定されるもの
である)を超えているドットのプロダクトを有する(ド
ットによって構成されている)文字の対は、3つの中間
ノードを有するニューラルネットワークを用いて検証さ
れうる。文字0〜9、0(ゼロ)、R、O(オー)及び
@を有するテスト用文字の組が本発明の検査のために用
いられた。これらについて検証ニューラルネットワーク
が、1、2、4、7、@、0およびAのサブセットのた
めに構成された。このサブセットにおいて、3つの中間
ノードが文字A、0及び@のためにのみ用いられた。
【0028】特別の訓練技法がこれらの検証ニューラル
ネットワークのために考案されており、そして文字
「A」を認識するために訓練されたニューラルネットワ
ークについては図5に図解されている。この例示におい
ては、3つの中間ノードの入力と関連する3つの組の重
みが存在することを喚起している。これらの重みはアレ
イW1 (K)、W2 (K)およびW3 (K)として考え
られうる。以前に図解した例示においては、K=988
であった。その理由はニューラルネットワークに対する
入力として988個のピクセルが存在したからである。
それゆえ、それらは、入力アレイP(K)、及び、重み
アレイW1 (K)、W2 (K)およびW3 (K)との間
には「1対1対応」の関係がある。
【0029】従来型のニューラルネットワークのバック
プロパゲーション訓練方法またはこれと類似するものの
使用に先だって、戦略的に重みアレイを初期化すること
(プリローディングすること)によって、本発明による
改良型のニューラルネットワークの訓練スピードが、精
度の向上とともに、入手しうることが、決定されてい
る。3つの中間ノードが用いられ、そしてニューラルネ
ットワークが2つの出力を認識するためにのみ用いられ
るこの場合において、重み関数は下記のように選択され
る。
【0030】
【数11】
【0031】
【数12】
【0032】
【数13】
【0033】ここで入力アレイP(K)は入力アレイで
あり、この入力アレイは検証されるべき文字を表す理想
的なものを有している。すなわち、重み関数は理想的な
入力アレイを組み換えたパターンを用いてプリローディ
ングされている。
【0034】この好適な実施例において、第1のタップ
1 (K)のための重み関数は、理想的な入力文字と非
常に関連の深いパターンとして選択される。実際、入力
アレイP(K)は、ニューラルネットワークが認識する
ように訓練されている文字について理想的なものを表す
ものを含んでいるとき、重みタップW1 (K)と入力ア
レイP(K)の相関は1.0である。それゆえ、理想に
非常に近い文字が入力に印加された場合、このノードは
強く「ファイア(fires) 」する(大きな出力を生成す
る)。第2の重み関数W2 (K)は、第1のタップ係数
1 (K)のアジティブインバースであるとして選択さ
れ、それにより、入力アレイP(K)が、ニューラルネ
ットワークが認識することを訓練されている文字を示す
理想的なものを有する場合、この入力アレイP(K)と
第1のタップ係数W1 (K)とほとんど関連のないもの
である。この場合においては相関は0.0である。それ
ゆえ、理想に非常に近い文字が入力として印加されてい
るとき、第2のノードは非常に重くファイアリングを禁
止する(小さな出力を生成する)。それゆえ、第2のノ
ードは理想的な文字を拒絶する。もちろん、ニューラル
ネットワークの訓練の後、重みの値が修正されうる。
【0035】(3つの隠れたノードを用いた)この例示
において、ランダムノイズによって初期化されている3
つのノードが加えられ、それによって十分大きな重み空
間が提供され、直線的な分離可能性が達成される(この
直線的な分離可能性とは固有の収束のために隠れたノー
ドをサブクラスに生成するニューラルネットワークの能
力をいう)。この場合はコンバージェンスが2つのノー
ドによっては得ることができない(または容易に得るこ
とができない)。換言すれば、第3のノードが実質的に
類似性のある文字の相互間を顕在化するために役に立つ
特別の重みを有するネットワークを提供する。上述した
ものに類似するものとしては、例えば、0(ゼロ)とO
(オー)と@、8と3とBなどである。認識され、顕著
化されるべき文字の数が非常に増加した場合に、一層隠
れたノードが必要とされ、それによって、さらに重み空
間を拡大化することによって直線的な分離可能性が実現
されることが理解されるであろう。
【0036】重みアレイが、図2に示したように斜線で
示した領域として示される大きな重みの値と、そして明
瞭な領域として示される小さな重みとを有するものに類
似する、38x26のマトリクスとして配列されている
場合、上述した式は図5に図解した関連性の薄い3つの
アレイのように表現しうる。テストに用いた実施例の重
みの値の許容可能な範囲は、初期状態として、浮動小数
点数表示で−3.2768から+3.2768の間であ
った。+0.3の値が大きな値として用いられ、そして
−0.3の値が小さな値として用いられ、それによって
試みた値の結果としては最良のものが生成され、そし
て、それの重みをアップおよびダウンの両者において値
を変動させることを可能にした。もちろん、更に最適化
することが可能である。±0.1から±0.5の範囲の
重みの値がタップ重みを初期化するに適した値として連
続的に検査された。±0.3が大きくそして小さい重み
の値として用いた場合に比べて、±0.5が用いられた
場合には、得られた結果が幾分貧弱であるということが
判った。初期の大きな重みの値および小さな重みの値と
して±0.1が用いられた場合には、コンバージェンス
(収束性)は幾分緩慢であった。重み関数W3 (K)が
ランダムノイズを用いて初期化された。このランダムノ
イズは、+0.3から−0.3の範囲において均一に分
布している。
【0037】これらの重みの値は、今述べている例につ
いて幾分特定的であるが、この技法は重みの値が対象と
している装置において尺度化(スケール)されていると
き一般的に適用されうる。この場合、大きい値および小
さい値がタップの値として用いられているダイナミック
レンジの上下ほぼ10%のポイントであるように規定さ
れるが、しかしながらこの値の比較的広い範囲で機能す
るように期待されているとき、良好な結果が得られた。
一般に「大きな」重みは「小さな」タップ重みに比較し
て大きい。
【0038】これらの重みを初期化した後、従来のバッ
クプロパーゲーションが複数のパスを用いて入力として
の複数の組について用いられた。文字の組が認識される
べき文字の順序で入力に印加され、他の文字のメンバの
組を用いてインターリーブされた(例えば文字「A」を
認識するネットワークを訓練する場合には、A、A、
A、A、B、B、...、Zより、むしろA、B、A、
C、A、D、...、A、Z、A、B、...、
Z、...を用いる)。これらのニューラルネットワー
クに関連した経験において、訓練シーケンスに関してネ
ットワークの従属性を減衰させることが要求され、そし
て、一般化する能力を有するネットワークが提供される
ことが望まれている(一般化能力とは、訓練に用いられ
た文字に類似する文字を認識することである。例えば、
その方法において認識を誤ると(corrupted) それでそれ
らの文字は訓練シーケンスにおけるそれらの文字と同一
ではない)。タップの重みを初期化する上述した技法の
使用により重みの収束が迅速化され、そして、訓練シー
ケンスについてニューラルネットワークの従属性が低減
した。
【0039】本発明の変形形態として、第1および第2
の隠れたノードのためのタップ重みが、初期化の後、そ
して訓練過程が起動される前に(または訓練過程におけ
るある点において)、小さな量のランダムノイズによっ
て修正することができ、それによって訓練期間における
ローカルミニマム(局部的に最小になること)の回避を
助けることができる。このことは、例えば、0.9〜
1.1の範囲の間のランダムな値(10%ノイズ)をタ
ップ重みに乗ずることによって実現される。10〜25
%の範囲のノイズが希望する結果を生成するために期待
されている。
【0040】訓練過程に対する更なる改善が行われ、そ
れによってニューラルネットワークの一般化が達成され
た。この技法においては、図7に図解したように、ニュ
ーラルネットワークがまずトレーニングシーケンスとし
て理想的な文字を用いて、所定の期間訓練された。その
期間の後、ニューラルネットワークが、文字の組におけ
る複数の文字についてのオフセットを用いて訓練され
た。それに関連したテストにおいて、そのシーケンスに
ついて500回の反復(繰り返し、サイクル)がオフセ
ット処理に先立って用いられた。それから1000回の
繰り返しが、加えられたオフセットを用いて使用され
た。オフセットはネットワークを収束するためには必要
ではない。しかしながら、収束するということだけが、
ニューラルネットワークが訓練の組の中には存在しない
データのために固有に作用することを確実にさせないと
いうことに留意することが重要である。このオフセット
技法の使用はニューラルネットワークを一般化すること
に役立ち、それによってトレーニングシーケンスの部分
ではないパターンを認識することをよりよく可能にす
る。このオフセットプロセスは付加的な利益を有する。
文字の縁にあるストレイピクセル(stray pixels)を文字
の中心にずらすことができる。訓練期間におけるオフセ
ットがこのシフトを模擬し、そして、そのようなノイズ
に対してロバスト的であるニューラルネットワークを創
生する。
【0041】オフセット処理が文字「T」を例として図
6に図解されている。図6(A)において標準の理想的
な文字「T」が「文字ウインド」の中の中央に図解され
ている。希望するニューラルネットワークの一般性を実
現するために、文字が学習過程においていくつかのピク
セルの数だけ上下左右に移動される。図6(B)におい
て、文字Tが1ピクセルだけ右側にオフセットされてい
る(ずらされている)。図6(C)において文字Tが2
ピクセルだけ上側にオフセットされている。テスト用ニ
ューラルネットワークにおいて、ランダムなオフセット
がシーケンスの各反復(繰り返し)において加えられ
る。そのオフセットは各方向において最大のピクセルで
ある。オフセットは任意の方向に2ピクセル程度とすべ
きである。そこで、所定の反復が「上側に1ピクセル、
左側に2ピクセル」、「下側に0、右側にピクセル」、
「下側に2ピクセル、上側に2ピクセル」などだけシフ
トされうる。オフセットは各反復期間におけるトレーニ
ングシーケンスの各文字において、ランダムに変化され
る。収束化についてある種の改良が、もしオフセットが
ニューラルネットワークによって検証されあるべきであ
った文字に印加されたときのみ期待されるということが
当業者によって理解されるであろう。オフセットのピク
セルの数、および、オフセットを変化させる技法などに
ついての他の種々の変形形態が当業者によって行われる
であろう。
【0042】この訓練過程が図7に記述されており、ス
テップ32から始まる。ステップ34において、(イエ
スまたノーのノードが考慮されうる)2つの中間ノード
が認識されるべき文字と相関があるアレイによって初期
化される。あるノードがアレイによって初期化される
が、このアレイはニューラルネットワークが訓練されて
いるものの文字の各ピクセルにおける大きな値の重みを
持ち、そして残ったピクセルについては小さな値を持
つ。このことは「イエス」のノードであることと考慮さ
れる。他のノード「ノー」のノードがアレイによって初
期化されるが、このアレイは上記した「イエス」のノー
ドのアレイと対向する(反対である)もの「すなわち、
アジティブインバース(additive inverse)」を持ってい
る。「イエス」のノードは、正しい文字が入力として印
加されたとき、高い値を累積し、「ノー」のノードは、
正しい文字が入力として与えられたとき、低い値を累積
する。
【0043】ステップ36において、もしその文字が文
字の組における他の文字から直線的に分離できない、第
3のノードが用いられる。ステップ38において、この
ノードが従来の方法と同様にランダムノイズによって初
期化される。いずれかの事象(イベント)において、文
字の組におけるすべての文字を含む訓練シーケンスがJ
回の反復の数について、ステップ40において、印加さ
れる。状況に依存して、J回の反復が経験的に最適化さ
れうる。このテスト用ニューラルネットワークにおいて
は、J回の反復としてほぼ500の反復が満足すべき値
であった。J回の反復ののち、オフセット処理が導入さ
れるが、ここでは任意の方向において最大2ピクセルの
ランダムオフセットが各反復の期間に加えられる。ステ
ップ42における処理として、反復の数としてはほぼ2
倍の反復(テストにおいて約1000の反復)が収束化
および一般性を実現するために満足するべき値であるこ
とが判った。所定の数の反復が行われた後または、収束
が達成された後、ステップ44においてこの訓練が終了
する。
【0044】一旦、訓練によって重みの値が決定される
と、浮動小数点演算を使用することを行わないようにす
ることが望まれる。その理由はそれの演算は非常に多く
の演算時間を要するからである。演算速度を迅速化させ
るために、実際に用いられる最終的な重みがスケーリン
グによって16ビットの整数の値に変換される。それゆ
え、−3.2768という最大のタップの重みが−32
768(−215)として表され、+3.2765のタッ
プの重みが+32768(+215)として表される。し
たがって、これらの最大値の間で重みがスケーリングさ
れる。簡単に10,000を乗ずることによって(十進
の位置を右にずらし、そして整数に変換することによっ
て)、16ビットの整数に変換することを簡単化するた
めに、重みの最少値および最少値の初期値が選択され
た。他の最少値または最大値についても本発明の範囲を
逸脱することなく選択することができる。
【0045】図8を参照して述べると、この認識および
検証過程がステップ50から開始するフローチャートの
形態で要約されている。ステップ52において、シリア
ル番号が部分10から走査され、コンピュータまたニュ
ーラルネットワーク回路によって利用可能な形態の画像
を表すものが生成される。好適実施例について考える
と、シリアル番号がコンパクトディスクの中心の孔のま
わりに半円形に配列されている。ステップ54におい
て、その画像が処理されて半円形の文字の配列から直線
状の配列に変換される。そのような配列としては、それ
ぞれの文字を回転させて図2に示したようなものをより
読みやすい配列にしたものがある。これについては本発
明と同時出願した上記関連出願に記載されている。
【0046】ステップ58においてマトリクスがアセン
ブルされて回転された文字が含まれる。一般に、この時
点において各々の文字を、処理するためにピクセルの区
分されたマトリクスに分離することが望ましい。それか
ら、このマトリクスがステップ62においてニューラル
ネットワークに印加されるが、そのニューラルネットワ
ークはN個の文字またはシンボルからなる適切な一つの
組のメンバーを認識するために訓練される。それから、
そのニューラルネットワークが、ステップ66において
ある結果を生成するが、この結果にはシリアル番号につ
いてのN個の文字またはシンボルのそれぞれの値につい
てそのニューラルネットワークの最良の推定が含まれ
る。
【0047】ステップ72において、シリアル番号につ
いてのそれぞれ認識されたシンボルのあるものについ
て、M個のより小さいニューラルネットワークの組がN
個のそのようなニューラルネットワークの集合から選択
される。N個のニューラルネットワークのそれぞれが訓
練されて、全ての文字の組におけるN個の文字について
単一のものの認識に対する答えとして「イエス」または
「ノー」のいずれかのみを与える。したがってN個のニ
ューラルネットワークのそれぞれはその文字の組におけ
る単一の文字の認識に関連している。
【0048】ステップ76において、シリアル番号にお
ける一つの文字に関連する個々のマトリクスのそれぞれ
が、ステップ72において選択されたM個のニューラル
ネットワークのあるものと関係しており、それにより、
シリアル番号のそれぞれの文字に関するピクセルのマト
リクスによって表されたものとしての文字の画像が、ス
テップ66において得られたそれぞれ認識された文字と
関連する検証ニューラルネットワークに印加される。そ
れから、より小さいM個のニューラルネットワークのそ
れぞれが、それぞれの文字を解析し、それぞれの文字が
正確に認識されているものかどうかを表すステップ82
における結果を提供する。もし、シリアル番号のすべて
のM個の文字がステップ84において正しく認識された
場合には、この処理はステップ86において終了する。
もし全ての文字がステップ84において検証されなかっ
た場合は、ステップ86における終了処理に先立って、
エラー修復(リカバリ)処理が、ステップ88において
行われる。
【0049】図9を参照して述べると、本発明に基づく
文字認識装置の実施例がブロックダイアグラムの形態で
表されている。この装置において、第1のニューラルネ
ットワーク100または文字認識のために設計された他
のニューラルネットワークが用いられて文字を初期的に
認識する。その文字の画像がその入力に印加されてい
る。ニューラルネットワーク100の認識処理がマニュ
アルで読み取ったものおよび入力したもの、または同じ
シリアル番号について複数の検証が続けられる認識であ
ってもよいことについて、当業者は理解している。工業
的な用途において、認識部分が一旦、初期的に用いられ
るという場合がしばしばである。それから、認識部分が
検証される複数の部分について反復して用いられる。ネ
ットワーク100の出力がスイッチコントロール回路1
04において読み出され、このスイッチコントロール回
路がスイッチ110および112の位置を決定し、それ
によってN個の文字検証ニューラルネットワーク120
1 から120N のいずれか一つを選択する。ニューラル
ネットワーク100における文字のマニュアルまたは他
の認識を行う場合には、スイッチ110および1122
で表されるスイッチング動作はまた手動的に実行され
る。もちろん本発明を逸脱することなしに他の実施態様
も可能である。
【0050】上述したように本発明の好適な実施例は、
検証の容量の観点において、少ないニューラルネットワ
ークを複数用いるが、そのような少ないニューラルネッ
トワークの配列が文字認識に利用できることも理解され
る。もし、ソフトウエア的に処理する実施態様において
は、これは、連続的にまたは並列的な処理として実現さ
れる。ハードウエア的に行う実施態様においては、並列
に接続された複数のニューラルネットワークの半導体チ
ップが迅速な処理を実現するために用いられる。この変
形態様が図10に図解されており、図10においてはN
個の文字の組が、例えば入力マトリクス134から、入
力として受け入れるN個の小さなニューラルネットワー
ク1301 から130N の組を用いている。N個のニュ
ーラルネットワークは、文字またはシンボルを同定する
「1オブN(N個のうちの1つ)」の出力を提供する。
【0051】本発明については種々の変形形態が可能で
ある。例えば、ニューラルネットワークについての現在
の実施例は、コンピュータープログラムの形態でディジ
タルコンピュータに実現した場合を述べたが、ハードウ
エアによる実行も可能であり、ニューラルネットワーク
の回路の稼働率(利用率)および価格がより有利にな
る。本発明の技法は3層のニューラルネットワークに関
連づけて記述したが、一般的にこれらのネットワークは
3層またはそれ以上の層についても適用可能である。ま
た本発明は最初に認識し、それから文字またはシンボル
を検証する2段階の処理過程について述べたが、検証過
程が任意の状況において単独で用いることができること
が、当業者によって理解される。その状況とは文字また
はシンボルが事前に判っている場合である。
【0052】訓練過程はまた本発明を逸脱することなく
相当に変更可能である。例えば、ランダムなオフセット
の変更について述べたが、オフセットを系統的に適用す
る場合も考案できる。そうした訓練シーケンスの構成(o
rganization)は系統的であるがランダムにすることもで
きる。重み関数W1 (K)およびW2 (K)はお互いに
独立に用いることができる。
【0053】本発明として、アルファベットまた数字の
形式の認識について強調して述べたが、上述したよう
に、工業的な用途においては、認識すべき対象が、ロボ
ットによってピックアップされるべき部分、アウトライ
ンの一部、バーコードまたは他の画像であることが要求
されている。3層のニューラルネットワークが開示され
たが、この技法はより多くの層を持つニューラルネット
ワークに拡張されるべきである。以上開示した実施例に
おいては入力は2進の値であったが、アナログまたはデ
ィジタル化されたアナログ入力もまた適用できる。他の
変形形態もまた当業者によって行うことができる。
【0054】したがって、本発明によれば、上述した目
的、意図および利益を十分に満足する装置が述べられて
いる。本発明は特定的な実施例に関連づけて記述されて
いるが、種々の変形形態、修正、代替および変形が、上
述した記述に照らし合わせれば、当業者にとって明瞭で
あることは明らかである。しがたって、本発明は添付し
た特許請求範囲の記載事項におけるそのような変形形
態、修正および変形を包含するものである。
【0055】
【発明の効果】以上述べたように本発明によれば、文字
またはシンボルを認識する改良された方法およびその装
置が提供され、これらの方法および装置によれば文字認
識の程度(精度)が向上する。また、本発明の訓練技法
によれば、ロバストなネットワークが提供でき、ニュー
ラルネットワークの一般化が達成できる。
【図面の簡単な説明】
【図1】本発明の動作を図解する図であり、(A)は全
体ブロック図、(B)は(A)に示したマトリクスとニ
ューラルネットワークの構成図である。
【図2】文字「A」を例示した場合のピクセルの配列を
示す図である。
【図3】図1に示したニューラルネットワークを示す図
である。
【図4】図1に示したニューラルネットワークを示す図
である。
【図5】図4に示したニューラルネットワークの重み関
数を初期化することを示す図である。
【図6】図6(A)、(B)、(C)は訓練過程に用い
られる文字のオフセットの処理を示す図である。
【図7】本発明の訓練処理を示すフローチャートであ
る。
【図8】本発明の動作を示すフローチャートである。
【図9】本発明の文字認識および検証装置の構成を示す
ブロック図である。
【図10】本発明の変形態様に基づく文字認識装置の構
成を示すブロック図である。
【符号の説明】
10・・・コンパクトディスクの部分 12・・・ビデオカメラ(走査装置) 14・・・極座標変換器 16・・・マトリクスアレイ 20・・・ニューラルネットワーク 30・・・ニューラルネットワーク

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】入力アレイP(K)によって表されるシン
    ボルを認識するためニューラルネットワークを訓練する
    方法であって、該方法が下記の諸段階、すなわち、 前記ニューラルネットワークの中間層であって2つのノ
    ードを有するものを提供し、 下記式で表されるタップ重みを有する前記2つのノード
    の一方に関連する重み関数W1 (K)を初期化し、 【数1】 但し、P(K)は検証すべき文字を表わすものを含む、 訓練シーケンスを前記ニューラルネットワークへ印加す
    る諸段階を有するニューラルネットワークを訓練する方
    法。
  2. 【請求項2】前記訓練段階に先立って、下記式で表され
    るタップ重み 【数2】 を有する前記2つのノードの他方のノードに関連する重
    み関数W2 (K)を初期化する段階をさらに具備する請
    求項1記載の方法。
  3. 【請求項3】前記ニューラルネットワークの前記中間層
    が第3のノードを有し、 前記方法が、前記訓練段階に先立って、下記式で表され
    るタップ重み 【数3】 を用いて訓練する前記第3のノードに関連する重み関数
    3 (K)を初期化する段階をさらに有する請求項2記
    載の方法。
  4. 【請求項4】訓練シーケンスにおける文字にオフセット
    を適用する段階をさらに具備する請求項2記載の方法。
  5. 【請求項5】訓練周期の最後の部分に、前記訓練シーケ
    ンスにおける文字にランダムなオフセットを印加する段
    階をさらに具備する請求項4記載の方法。
  6. 【請求項6】入力アレイP(K)によって表されるシン
    ボルを認識するためニューラルネットワークを訓練する
    方法であって、該方法が下記の諸段階、すなわち、 前記ニューラルネットワークの中間層であって3つのノ
    ードを有するものを提供し、 下記式で表されるタップ重み 【数4】 ただし、前記P(K)は検証されるべき文字を表すもの
    を含む、を有する前記3つのノードに関連している重み
    関数W1 (K)、W2 (K)、およびW3 (K)を初期
    化し、 訓練シーケンスを前記ニューラルネットワークに印加す
    る諸段階を有するニューラルネットワークを訓練する方
    法。
  7. 【請求項7】入力アレイP(K)によって表されるシン
    ボルを認識するためニューラルネットワークを訓練する
    方法であって、該方法が下記の諸段階、すなわち、 ニューラルネットワークの中間層であって2つのノード
    を有するものを提供し、 下記式で表されるタップ重み 【数5】 ただし、前記P(K)は検証されるべき文字を表すもの
    を含む、を有する前記2つのノードに関連する重み関数
    1 (K)およびW2 (K)を初期化し、 訓練シーケンスを前記ニューラルネットワークに印加す
    る諸段階を具備するニューラルネットワークを訓練する
    方法。
  8. 【請求項8】前記訓練シーケンスを印加する段階が、バ
    ックプロパゲーションによって前記ニューラルネットワ
    ークを訓練する段階を有する請求項7記載の方法。
  9. 【請求項9】入力アレイP(K)によって表されるシン
    ボルを認識するためニューラルネットワークを訓練する
    方法であって、該方法が下記の諸段階、すなわち、 前記ニューラルネットワークの中間層であって2つのノ
    ードを有するものを提供し、 下記式で表されるタップ重み 【数6】 ただし、前記P(K)は検証されるべき文字を表すもの
    を含む、を有する前記2つのノードの他方のノードに関
    連する重み関数W2 (K)を初期化し、 訓練シーケンスを前記ニューラルネットワークへ印加す
    る諸段階を具備するニューラルネットワークを訓練する
    方法。
  10. 【請求項10】前記訓練段階に先立って、下記式で表さ
    れるタップ重み 【数7】 を有する前記2つのノードの一方のノードに関連する重
    み関数W1 (K)を初期化する段階をさらに具備する請
    求項9記載の方法。
  11. 【請求項11】入力アレイP(K)によって表されるシ
    ンボルを認識するためニューラルネットワークを訓練す
    る方法であって、該方法が下記の諸段階、すなわち、 前記ニューラルネットワークの中間層を提供し、 前記入力アレイP(K)が、前記ニューラルネットワー
    クによって認識されるべきシンボルを示すものを含むと
    き、該入力アレイP(K)と非常に関連する値に前記中
    間層のノードに関連する重み関数W1 (K)を初期化
    し、 訓練シーケンスを前記ニューラルネットワークに印加す
    る諸段階を具備するニューラルネットワークを訓練する
    方法。
  12. 【請求項12】前記入力アレイP(K)が前記ニューラ
    ルネットワークによって認識されるべきシンボルを表す
    ものを含むとき、該入力アレイP(K)と非常に関連の
    ない値に第2の中間ノードに関連する重み関数W
    2 (K)を初期化する段階をさらに具備する請求項11
    記載の方法。
  13. 【請求項13】前記重み関数W2 (K)が前記重み関数
    1 (K)のアジティブインバースである請求項12記
    載の方法。
  14. 【請求項14】前記重み関数W1 (K)と前記入力アレ
    イP(K)との相関がほぼ1.0である請求項11記載
    の方法。
  15. 【請求項15】前記重み関数W2 (K)と前記入力アレ
    イP(K)との相関がほぼ0.0である請求項12記載
    の方法。
  16. 【請求項16】第3の中間ノードと関連する重み関数W
    3 (K)をランダムな値に初期化する段階をさらに具備
    する請求項11記載の方法。
  17. 【請求項17】第3の中間ノードと関連する重み関数W
    3 (K)をランダムな値に初期化する段階をさらに具備
    する請求項12記載の方法。
  18. 【請求項18】ニューラルネットワークを訓練する方法
    であって、該方法が下記の諸段階、すなわち、 前記ニューラルネットワークによって認識されるための
    シンボルを選択し、 入力の値のアレイとして前記シンボルを表し、 第1の隠れたノードのための前記入力の値のアレイと非
    常に関連のある値を有する第1の重みの組を選択する諸
    段階を具備する、ニューラルネットワークを訓練する方
    法。
  19. 【請求項19】第2の隠れたノードのための第2の重み
    の組を選択する段階をさらに具備するものであって、該
    第2の重みの組が前記入力の値のアレイと弱い関連を有
    するものである請求項11記載の方法。
  20. 【請求項20】第3の隠れたノードのためのランダムノ
    イズとして第3の重みの組を選択する段階をさらに具備
    する請求項19記載の方法。
  21. 【請求項21】前記重みの値のそれぞれにランダムな乗
    算因子を乗ずる乗算段階をさらに具備する請求項18記
    載の方法。
  22. 【請求項22】前記重みの値のそれぞれにランダムな乗
    算因子を乗ずる乗算段階をさらに具備する請求項19記
    載の方法。
  23. 【請求項23】訓練シーケンスを前記ニューラルネット
    ワークに印加する段階をさらに具備する請求項18記載
    の方法。
  24. 【請求項24】訓練シーケンスを前記ニューラルネット
    ワークに印加する段階をさらに具備する請求項21記載
    の方法。
  25. 【請求項25】訓練シーケンスを前記ニューラルネット
    ワークに印加する段階をさらに具備する請求項22記載
    の方法。
JP5244173A 1992-10-01 1993-09-30 ニューラルネットワークを訓練する方法 Withdrawn JPH0713951A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US95552692A 1992-10-01 1992-10-01
US07/955526 1992-10-01

Publications (1)

Publication Number Publication Date
JPH0713951A true JPH0713951A (ja) 1995-01-17

Family

ID=25496938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5244173A Withdrawn JPH0713951A (ja) 1992-10-01 1993-09-30 ニューラルネットワークを訓練する方法

Country Status (2)

Country Link
US (1) US5778152A (ja)
JP (1) JPH0713951A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040042650A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Binary optical neural network classifiers for pattern recognition
US20040064425A1 (en) * 2002-09-30 2004-04-01 Depold Hans R. Physics based neural network
US20040064426A1 (en) * 2002-09-30 2004-04-01 Depold Hans R. Physics based neural network for validating data
US20040064427A1 (en) * 2002-09-30 2004-04-01 Depold Hans R. Physics based neural network for isolating faults
US7233692B2 (en) 2002-11-14 2007-06-19 Lockheed Martin Corporation Method and computer program product for identifying output classes with multi-modal dispersion in feature space and incorporating multi-modal structure into a pattern recognition system
US8156088B2 (en) * 2007-09-20 2012-04-10 Canon Kabushiki Kaisha Document encoding apparatus, document encoding method, and computer-readable storage medium
US7756678B2 (en) * 2008-05-29 2010-07-13 General Electric Company System and method for advanced condition monitoring of an asset system
US10373047B2 (en) * 2014-02-28 2019-08-06 Educational Testing Service Deep convolutional neural networks for automated scoring of constructed responses
US10318861B2 (en) * 2015-06-17 2019-06-11 International Business Machines Corporation Artificial neuron apparatus
DE102016222814A1 (de) * 2016-11-18 2018-05-24 Robert Bosch Gmbh Verfahren zum berechnen einer ausgabe eines neuronalen netzes
WO2018213399A1 (en) * 2017-05-16 2018-11-22 University Of Maryland, College Park Integrated circuit designs for reservoir computing and machine learning
CN110084215A (zh) * 2019-05-05 2019-08-02 上海海事大学 一种二值化三元组孪生网络模型的行人重识别方法及***
CA3148617A1 (en) * 2019-09-13 2021-03-18 Cedars-Sinai Medical Center Systems and methods of deep learning for large-scale dynamic magnetic resonance image reconstruction
CN112712893B (zh) * 2021-01-04 2023-01-20 众阳健康科技集团有限公司 一种提升计算机临床辅助诊断效果的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3329806B2 (ja) * 1990-11-09 2002-09-30 株式会社日立製作所 ニューラルネット構築装置

Also Published As

Publication number Publication date
US5778152A (en) 1998-07-07

Similar Documents

Publication Publication Date Title
JPH0713951A (ja) ニューラルネットワークを訓練する方法
Zhao et al. Pyramid feature attention network for saliency detection
US5742702A (en) Neural network for character recognition and verification
US5805731A (en) Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US5903884A (en) Method for training a statistical classifier with reduced tendency for overfitting
Kussul et al. Improved method of handwritten digit recognition tested on MNIST database
US5805730A (en) Method for training an adaptive statistical classifier with improved learning of difficult samples
Chrisomalis A cognitive typology for numerical notation
US5768422A (en) Method for training an adaptive statistical classifier to discriminate against inproper patterns
CN112801228B (zh) 一种文本识别方法、电子设备及其存储介质
US6480621B1 (en) Statistical classifier with reduced weight memory requirements
US5796863A (en) Method for training an adaptive statistical classifier to balance unigram prior factors
CN112801280B (zh) 视觉深度自适应神经网络的一维卷积位置编码方法
CN109307835B (zh) 基于锯齿波和遗传算法的模拟电路测点优选方法
Singh et al. Steganalysis of digital images using deep fractal network
Afshar et al. Turn down that noise: synaptic encoding of afferent SNR in a single spiking neuron
CN112686104A (zh) 基于深度学习的多声部乐谱识别方法
JPH06348906A (ja) ニューラルネットワークを訓練する方法、文字認識装置、およびシンボル処理方法
CN111275033A (zh) 一种字符识别方法、装置及电子设备、存储介质
Yu et al. A multi-task learning CNN for image steganalysis
JPH06282686A (ja) 文字認識方法
US6560582B1 (en) Dynamic memory processor
Oliveira et al. Improving RBF-DDA performance on optical character recognition through parameter selection
Qiu et al. Neuromorphic acceleration for context aware text image recognition
Chen et al. Script-level word sample augmentation for few-shot handwritten text recognition

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001226