JP2005190429A - 参照データ認識・学習方法及びパターン認識システム - Google Patents
参照データ認識・学習方法及びパターン認識システム Download PDFInfo
- Publication number
- JP2005190429A JP2005190429A JP2003434596A JP2003434596A JP2005190429A JP 2005190429 A JP2005190429 A JP 2005190429A JP 2003434596 A JP2003434596 A JP 2003434596A JP 2003434596 A JP2003434596 A JP 2003434596A JP 2005190429 A JP2005190429 A JP 2005190429A
- Authority
- JP
- Japan
- Prior art keywords
- reference data
- data
- rank
- search
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99937—Sorting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
【課題】教師データを必要とせず、自動的に出現頻度の高いデータを学習する参照データ認識・学習方法を提供する。
【解決手段】処理(a)では、入力データと最小距離となる参照データをwinnerとして検出する。処理(b)では、入力データ−winner間の距離がしきい値未満か否かを判断する。処理(c)では、入力データ−winner間の距離がしきい値未満の場合には、winnerとなった参照データは入力データと一致するとみなし、参照データのrankを上げる。処理(d)では、入力データ−winner間の距離がしきい値以上であった場合に、winnerとなった参照データは入力データとは異なるデータであるとみなし、入力データを新たな参照データとして連想メモリに書き込む。その際、rankの上位を長期記憶、下位を短期記憶とし、winnerとなった参照データのrankの上げ幅を適宜設定し、一致する頻度に応じて短期記憶、長期記憶のいずれかに登録される。
【選択図】 図4
【解決手段】処理(a)では、入力データと最小距離となる参照データをwinnerとして検出する。処理(b)では、入力データ−winner間の距離がしきい値未満か否かを判断する。処理(c)では、入力データ−winner間の距離がしきい値未満の場合には、winnerとなった参照データは入力データと一致するとみなし、参照データのrankを上げる。処理(d)では、入力データ−winner間の距離がしきい値以上であった場合に、winnerとなった参照データは入力データとは異なるデータであるとみなし、入力データを新たな参照データとして連想メモリに書き込む。その際、rankの上位を長期記憶、下位を短期記憶とし、winnerとなった参照データのrankの上げ幅を適宜設定し、一致する頻度に応じて短期記憶、長期記憶のいずれかに登録される。
【選択図】 図4
Description
本発明は、パターンマッチング処理のための参照データを追加して認識させる参照データ認識・学習方法と、この方法を用いて参照データの認識・学習を行うパターン認識システムに関する。
パターン認識システムにおいて、パターンマッチング処理は認識プロセスにおける重要な要素である。従来のシステムでは、プロセッサをベースに実現したモデルが最も一般的である。このモデルでは、入力パターンのデータをメモリ内の複数の参照データと逐次比較して、最も類似したパターンを示す参照データを検出する手法をとっている。しかしながら、このモデルの手法には、逐次比較を要することから多くの処理時間を要し、しかも比較データ数の増加に比例してその処理に要する時間が増大してしまうという問題がある。また、参照データについては、逐次比較されるため、比較順序の入れ替え、新規な参照データの登録において学習する概念はなく、学習による処理時間の短縮効果は得られない。
パターン認識と学習は、人間の脳と同じような能力を持つ人工知能システムを構築するために必要不可欠な機能である。そのため、これらの機能を集積回路上で実現することは技術的に非常に重要である。これまでに提案されているパターン認識と学習機能の実現方法は、ニューラルネットワークを用いたものが殆どである(例えば非特許文献1参照)。しかし、ニューラルネットワークを用いた方法では、パターンを記憶する効率の良い方法がないため、パターンの情報をネットワーク構造自体に取り入れる必要がある。また、既にネットワークの学習が完了した後で、新たなパターンを認識できるように学習させるためには、全体の再学習が必要となり、認識処理をしながら学習することは困難である。さらに、近年のニューラルネットワークを用いたハードウェアによる実現方法に関する進展は、当初期待されたものよりも遅れており、集積度や消費電力の観点からLSI化が困難な状況にあり、メモリ要素を効率よく組み込んだより優れた新しいハードウェアでの実現方法が必要とされている。
以上の諸事情を考慮し、近年では、全並列アーキテクチャによる小面積・高速連想メモリ(例えば非特許文献2−4、特許文献1−3参照)の開発が進められており、この連想メモリをパターンマッチング処理に利用することが提案されている。連想メモリは、認識機能実現に重要な要素である最小距離検索機能を有しており、検索データと各参照データの比較をアナログ・ディジタル混在かつ全並列処理で実行可能なことから、高速なパターンマッチング処理を実現できるものとして注目されている。
しかしながら、この連想メモリをベースとしたパターン認識システムにおいても、新たな参照データを認識するように効率よく学習させるための具体的な手法が確立されておらず、参照データの追加または入れ替えのための処理にかなりの時間要してしまう。
岩田穆、雨宮好仁編著、"ニューラルネットワークLSI"、電子情報通信学会、1995。 H.J.Mattausch, et al. , "Compact associative-memory architecture with fully-parallel search capability for the minimum hamming distance",IEEE Journal. of Solid-State Circuits,Vol.37,pp.218-227,2002. H.J.Mattausch et al. , "Fully-parallel pattern-matching engine with dynamic adaptability to Hamming or Manhattan distance,"2002 Symposium on VLSI Circuit Dig.of Tech.Papers,pp.252-255,2002. H.J.Mattausch et al. , "An architecture for Compact Associative Memories with Deca-ns Nearest-Match Capability up to Large Distance,"ISSCC Dig.of Tech.Papers,pp.170-171,2001. 特願2001−011760号
特願2002−159436号
特願2002−165759号
岩田穆、雨宮好仁編著、"ニューラルネットワークLSI"、電子情報通信学会、1995。 H.J.Mattausch, et al. , "Compact associative-memory architecture with fully-parallel search capability for the minimum hamming distance",IEEE Journal. of Solid-State Circuits,Vol.37,pp.218-227,2002. H.J.Mattausch et al. , "Fully-parallel pattern-matching engine with dynamic adaptability to Hamming or Manhattan distance,"2002 Symposium on VLSI Circuit Dig.of Tech.Papers,pp.252-255,2002. H.J.Mattausch et al. , "An architecture for Compact Associative Memories with Deca-ns Nearest-Match Capability up to Large Distance,"ISSCC Dig.of Tech.Papers,pp.170-171,2001.
以上述べたように、従来では、高速マッチング処理の実現を図った連想メモリベースのパターン認識システムにおいても、新たに追加される参照データを認識するように効率よく学習させるための具体的な手法が確立されておらず、参照データの認識・学習のための処理にかなりの時間がかかっている。
本発明は、上記の事情に鑑みてなされたもので、パターンマッチング処理に不可欠な新規参照データの認識を比較的短時間で自動的に学習させることのできる参照データ認識・学習方法と、この方法を採用してパターン認識に要する時間を短縮可能としたパターン認識システムを提供することを目的とする。
上記の目的を達成するために、本発明に係る参照データ認識・学習方法は、入力パターンの検索データと比較して認識するために格納される複数の参照データに優先度に応じたランクを付けておき、前記検索データを入力する毎に前記複数の参照データと比較して最も類似する参照データを選び、両者の類似度から両者が同一か否かを判断し、同一と判断される場合には該当する参照データのランクを規定数上げて順次ランクを繰り下げ、同一でないと判断される場合には前記検索データを前記参照データとして所定のランクで登録することを特徴とする。
また、本発明に係るパターン認識システムは、上記参照データ認識・学習方法を利用して、少なくとも、入力パターンの検索データを認識するための複数の参照データを記憶する参照データ記憶手段、前記検索データと最小距離にある参照データを求める最小距離検索手段、及び前記連想メモリで得られる最小距離がしきい値以上か否かに応じて前記検索データと最小距離の参照データとの同一性を判断する判断手段を備える連想メモリと、前記連想メモリに記憶される複数の参照データを、それぞれ優先度に応じたランキングを付して管理するランキング処理手段と、前記判断手段で検索データと参照データとが同一であると判断されたとき、前記ランキング処理手段に該当参照データのランクを繰り上げて繰り上げ先以降の参照データのランクを繰り下げ、前記検索データと参照データとが同一でないと判断されたとき、前記連想メモリに該当検索データを新たな参照データとして記憶させ、前記ランキング処理手段に新参照データのランクを初期値に設定し、設定ランク以降の参照データのランクを繰り下げる認識学習制御手段とを具備することを特徴とする。
上記構成による参照データ認識・学習方法及びこの方法に基づくパターン認識システムでは、与えられた検索データに対して、連想メモリは最小距離検索を行い、最小距離データ(winnerと呼ぶ)に対して検索データとの類似度を比べ、同一とみなすか判断される。異なるものと判断された場合は、検索データを新たな参照データとして学習される(既存の参照データに対しデータの上書きを行う)。また同一と認識された場合、その参照データは検索データ学習時の上書き対象から遠ざかり、より長期間記憶するといった効果がある。以上から新たな検索データ、頻繁に使用される参照データを自動的に学習する機能を有する。
ニューラルネットワークの外部から教育する、いわゆる「教師あり学習」では、学習速度の問題等の特有の問題があるが、連想メモリベースの方法では学習させたいデータをメモリに書き込むだけでよい。すなわち、「教師あり学習」のように人間が入力に対し正しい出力を教えてやらなくても、頻繁に与えられるデータを自動的に学習することが可能なことから、「教師なし学習」を行うことが可能となる。新しいデータを学習する分、既に記憶したデータのいずれかを削除しなければいけないが、十分学習されたデータはしばらく削除されず、優先的に記憶されている。このように、本発明は、短期記憶・長期記憶といった人間の記憶モデルを模倣したアルゴリズムを採用している。
本発明によれば、パターンマッチング処理に不可欠な新規参照データの認識を比較的短時間で自動的に学習させることのできる参照データ認識・学習方法と、この方法を採用してパターン認識に要する時間を短縮可能としたパターン認識システムを提供することができる。
以下、図面を参照して、本発明を実施するための最良な形態を詳細に説明する。
図1は、本発明に係る方法が適用される連想メモリベースのパターン認識システムの一例として、画像認識システムの構成を示すブロック図である。
このシステムでは、画像入力部11にて画像を取り込み、補正処理部12にてノイズ成分等を除去し、特徴抽出部13にて入力画像の特徴パターンを抽出する。続いて、検索部14にて、特徴パターン(入力データ)を予めデータベース15に登録された複数の標準パターン(参照データ)の中から最も類似するパターンを検索し、該当する標準パターンが検索された場合には認識部16にて入力画像が標準パターンを有する既知の画像であることを認識し、その結果を表示装置等の出力部17に送る。
上記システムでは、検索部14、データベース15、認識部16を連想メモリAによって実現している。連想メモリAは、通常のRAMの機能、すなわち、与えられたアドレスに対してそのアドレスにデータを書き込んだり、アドレスのデータを読み込んだりするといった機能に加え、与えられたデータに対してメモリ内から最も類似したもの(距離が最小のもの)を検索する機能を有する。
上記システム構成において、認識効率を上げるためには、検索処理の学習アルゴリズムが不可欠である。特に、検索の結果、類似する標準パターンがなかった場合、新たな標準パターンを登録し、この標準パターンの認識を学習させる必要がある。
本発明が提案する認識・学習アルゴリズムは、連想メモリの参照データ(テンプレート)に無いデータを一時的に短期間の記憶領域に格納し、頻繁に与えられるデータを長期間の記憶領域に格納することで学習を実現するもので、人間の脳の短期間と長期間の記憶の概念に基づいている。図2に短期・長期記憶に基づく学習機能を実現する様子を示す。図2において、縦軸は記憶されている程度を示し、上側の領域が長期記憶領域(長期間覚えるために使用)、下側の領域が短期記憶領域(一時的な記憶に使用)を表している。新しい入力データが与えられた場合、短期記憶領域の最上位に登録され、検索データとの一致数に応じて学習効果により長期記憶領域に登録される。新データが入力され登録された場合には、最下位ビットのデータが忘却(破棄)される。
最小距離検索連想メモリを認識システムに応用する際の認識・学習の概要について、図3を参照して説明する。
図3(a)はメモリ内に参照データがない場合の認識結果を示しており、図3(b)は学習によって参照データが新規登録された場合の認識結果を示している。
最小距離検索連想メモリを認識システムに応用した場合、メモリ内に入力(検索)データに対応する参照データが無いと、連想メモリは最小距離を持つデータをウィナー(winner)として検出してしまう。例えば、図3(a)に示すように、文字データ“A”“B”“C”“D”を参照データとして記憶している連想メモリに対して入力データとして“3”を入力とした場合,単純に最小距離検索の結果だけから判断すると“B”と認識されてしまう.しかし,“3”と“B”の距離は実際には大きいため“3”と“B”を異なるデータとして扱う方がよい.
そこで、本発明では、入力データとwinner間の距離(入力データ−winner間距離)を算出し、しきい値と比較して、しきい値未満ならば一致、しきい値以上ならば不一致といった判断を行うようにする。そして、連想メモリ内の各参照データにプライオリティ(優先順位)を与えておき、不一致と見なされた入力データをプライオリティの低い参照データに代わって新たに参照データとして記憶させ、一致と見なされた場合はその参照データのプライオリティを上げるという学習を実行する。例えば、図3(b)に示すように、不一致と見なされた入力データ“3”をプライオリティの低い参照データ“C”に代わって新たに参照データとして記憶し、一致と見なされる毎にその参照データのプライオリティを上げる。このような学習を実行することにより、次に“3”が入力されたとき、正しく“3”と識別することが可能となる。
そこで、本発明では、入力データとwinner間の距離(入力データ−winner間距離)を算出し、しきい値と比較して、しきい値未満ならば一致、しきい値以上ならば不一致といった判断を行うようにする。そして、連想メモリ内の各参照データにプライオリティ(優先順位)を与えておき、不一致と見なされた入力データをプライオリティの低い参照データに代わって新たに参照データとして記憶させ、一致と見なされた場合はその参照データのプライオリティを上げるという学習を実行する。例えば、図3(b)に示すように、不一致と見なされた入力データ“3”をプライオリティの低い参照データ“C”に代わって新たに参照データとして記憶し、一致と見なされる毎にその参照データのプライオリティを上げる。このような学習を実行することにより、次に“3”が入力されたとき、正しく“3”と識別することが可能となる。
先に述べたように、本発明の学習方法(以下、学習アルゴリズムと記す)の特徴とする点は、連想メモリの参照データ(データベースに相当する)に無いデータを一次的に記憶し、頻繁に与えられるデータを学習することで、人間の脳の短期間の記憶と長期間の記憶に相当する処理を実現したことにある。このようなメモリベースアーキテクチャによる学習アルゴリズムは、ニューラルネットワークが不得手とする追記的な学習を容易とする。
一般に、訓練されたニューラルネットワークに新しいデータのみを追記的に学習させるには、以前学習したデータを想起するためのネットワークに対し、教師データを与えて最初から学習をやり直す必要がある。このような教師データを要する学習に対し、メモリベースによる方法ではメモリに新しいデータを書き込むだけで対応させることが可能となる。このため、本発明による学習アルゴリズムでは、教師データを必要とせず、自動的に出現頻度の高いデータを学習することが可能である。これにより多くの知的な応用が可能となる。ここでは連想メモリを用いた3種類の認識・学習アルゴリズムを提案する。
(認識・学習アルゴリズム1)
図4は、本発明に係る認識・学習アルゴリズム1の処理手順を示すフローチャートである。
図4は、本発明に係る認識・学習アルゴリズム1の処理手順を示すフローチャートである。
図4において、処理(a)では、データ入力があると、入力データと各参照データとの距離(例えばハミング距離,マンハッタン距離,ユークリッド距離)を求め、最小距離となる参照データをwinnerとして検出する。
処理(b)では、入力データ−winner間の距離Dを評価し、その距離がしきい値未満かしきい値以上かを判断する。
処理(c)では、入力データ−winner間の距離Dがしきい値未満の場合に、winnerとなった参照データは入力データと一致するとみなし、参照データのプライオリティを示すランク(rank)を上げる。その際、rankの上位を長期記憶(NL個)、下位を短期記憶(NS個)とする。winnerとなった参照データのrankの上げ幅は、短期記憶のときJS 、長期記憶のときJL とする(但し、JS <JL )。
処理(d)では、入力データ−winner間の距離Dがしきい値以上であった場合に、winnerとなった参照データは入力データとは異なるデータであるとみなし、入力データを新たな参照データとして連想メモリに書き込む。その際、新たに参照データとして学習される入力データは、短期記憶内のrankの最上位として記憶され、他の短期記憶の参照データのrankは繰り下げられる。その結果、学習前に最下位にあった参照データは削除される(連想メモリ上では、そのアドレスに入力データを上書きする)ことになる。
1つ目の認識・学習アルゴリズム1の短期記憶・長期記憶について、図5を参照して具体的に説明する。
図5は、連想メモリに記憶された参照データにrankを与えた様子を示している。ここでは、参照データ最大記憶数64個の連想メモリに対し、上位のrank1〜40を長期記憶の参照データ、それより下位のrank41〜64を短期記憶の参照データとして記憶するものとする。
尚、上記短期記憶は、新しいデータを学習する度に既に記憶しているデータを忘却する一時的な扱いの記憶を意味する。これに対して、上記長期記憶は、短期記憶に比べて新たにデータを学習した際の影響を受けず、比較的長期に渡って記憶が継続されることを意味する。
図6A、図6Bは、それぞれ上記認識・学習アルゴリズム1において、図5に示すようにランキングされた参照データが連想メモリに記憶され、連想メモリによる最小距離検索の結果、入力(検索)データ−winner間の距離Dがしきい値未満となった場合の処理(c)の例を示している。また、図6Cは、上記認識・学習アルゴリズム1において、図5に示すようにランキングされた参照データが連想メモリに記憶され、連想メモリによる最小距離検索の結果、入力(検索)データ−winner間の距離Dがしきい値以上となった場合の処理(d)の例を示している。
図6Aにおいて、winner=参照データ39では、rank39=長期記憶であることから、winner(参照データ39)のrankをJL (ここではJL =5とする)だけ上げてrank34とする。このとき、旧rank34以下のランキングを順に繰り下げる。この結果、rank34〜39のrankが入れ替わる。
図6Bにおいて、winner=参照データ63では、rank63=短期記憶であることから、winner(参照データ63)のrankをJS (ここではJS =3とする)だけ上げてrank60とする。このとき、旧rank60以下のランキングを順に繰り下げる。この結果、rank60〜63のrankが入れ替わる。
図6Cにおいて、入力データとwinner間の距離がしきい値以上であるとき、winnerとなった参照データは入力データと異なるデータとみなし、この入力データを新たな参照データとして連想メモリに書き込む。その際、新たに参照データとして学習される入力データは、短期記憶内の最上位rank41に記憶され、これによって他の短期記憶における参照データのrankは繰り下げられる。その結果、学習前に最下位にあった参照データは削除される(そのアドレスに入力データを上書きする)。
上記の認識・学習アルゴリズム1では、認識される度にその参照データの記憶が強くなり(rankが上がる)、認識に供しない参照データの記憶が弱くなる(rankが下がる)。その結果、頻繁に使うデータは忘れにくく、ほとんど使われないデータは忘れていくといった動作を実現することができ、認識効率を高めつつ、記憶容量制限のあるハードウェア資源を有効利用することができる。
(認識・学習アルゴリズム2)
図7は、本発明に係る認識・学習アルゴリズム2の処理手順を示すフローチャートである。尚、図7において、図4と同一部分には同一符号を付して示し、重複する説明を省略する。
図7は、本発明に係る認識・学習アルゴリズム2の処理手順を示すフローチャートである。尚、図7において、図4と同一部分には同一符号を付して示し、重複する説明を省略する。
この認識・学習アルゴリズム2は、処理(c)において、winnerの長期記憶/短期記憶判定(c1)で短期記憶と判定された場合に、そのwinnerが短期記憶と判定された回数が規定回数kに達したか否かを判断し(c2)、規定回数kに達していなければ短期記憶として処理し(c3)、規定回数kに達した場合には長期記憶として任意のrankに入れるようにしている(c4)。
すなわち、上記アルゴリズム2では、短期記憶と判断された短期記憶から長期記憶へ移るのに、短期記憶において一定数k回の認識(検索データ=winner)を要するようにしたことを特徴とし、k回目の認識時に短期記憶から長期記憶の任意のrankへと移る。アルゴリズム1がJL もしくはJS だけ上げるのに対し、アルゴリズム2はk回目未満の認識時はWinnerの記憶領域の最上位に移る。上記のアルゴリズム1と同様、長期記憶に記憶されたデータは短期記憶と比べて忘れにくい特徴を持つ。
図8A〜図8Dにそれぞれ上記認識・学習アルゴリズム2の処理の様子を示す。尚、ここでは、rankと参照データとの関係が図5に示したようになっているものとする。
図8Aは、入力(検索)データ−winner間距離D<しきい値となって入力(検索)データ=winnerとして見なされた場合の一例を示すものである。ここではwinner=参照データ63でwinnerが短期記憶であるから、winnerのrankを短期記憶の最上位(例ではrank41)に繰り上げる。このとき、旧rank41〜62の参照データのrankは順次繰り下げられることになる。
図8Bは、ある参照データに対して入力(検索)データ=winnerとして見なされ、短期記億の最上位への繰り上げ操作が一定回数(k回)行われた場合の一例を示すものである。この場合には、参照データは短期記憶から長期記憶の設定されたrank(例ではrank20)に移ることができる。この場合も、旧rank20〜62の参照データのrankは順次繰り下げられる。
図8Cは、ある参照データに対して入力(検索)データ=winnerとして見なされた場合に、そのwinnerが長期記憶であった場合の一例を示すものである。この例では、winner=参照データ39でwinnerが長期記憶であるから、winnerのrankは長期記憶の最上位(rank1)に繰り上げられる。このとき、旧rank1〜38の参照データのrankは順次繰り下げられる。
図8Dは、入力(検索)データ−winner間距離D>しきい値であり、検索データ≠winnerと判断された場合の一例を示すものである。この例では、アルゴリズム1と同様に短期記憶となる下位のrankの中の最上位(例ではrank41)に検索データが記憶される。一方、その処理前に最下位(rank64)にあった参照データは削除される。
(認識・学習アルゴリズム3)
図9は、本発明に係る認識・学習アルゴリズム3の処理手順を示すフローチャートである。尚、図9において、図4と同一部分には同一符号を付して示し、重複する説明を省略する。
図9は、本発明に係る認識・学習アルゴリズム3の処理手順を示すフローチャートである。尚、図9において、図4と同一部分には同一符号を付して示し、重複する説明を省略する。
この認識・学習アルゴリズム3は、rankに長期・短期といった区別は無く(図4の処理(c)に相当するステップがない)、処理(d)で新しいデータを学習する際(入力≠winner)は、新しいデータを最下位にあったデータのアドレスに記憶させ、このデータのrankを最上位に置く。このとき、他のデータのrankは1つずつ下がる。認識時(入力=winner)にはwinnerはrankの最上位へと移動し、これらの間にあったデータのrankは一つずつ下がる。新しいデータが頻繁に現れるような環境では、直ちに全参照データが書き換えられる特徴がある。
図10A,図10Bにそれぞれ上記認識・学習アルゴリズム3の処理の様子を示す。尚、ここでは、rankと参照データとの関係が図5に示したようになっているものとする。
図10Aは、入力(検索)データ−winner間距離D>しきい値であり、入力(検索)データ≠winnerと判断された場合の一例を示すものである。この場合、本アルゴリズム3では、入力(検索)データをrank1として記憶し、最下位のrankにあった参照データ64を削除する(処理(d)′)。
図10Bは、入力(検索)データ−winner間距離D<しきい値となって入力(検索)データ=winner(=参照データ63)として見なされた場合の一例を示すものである。この場合、本アルゴリズム3では、winnerのrankは関係なくwinnerの参照データ63をrank1に繰り上げ、その処理前にrank1〜(winnerのrank-1)にあった各参照データのrankを一つずつ下げることになる(処理(e))。
上記認証・学習アルゴリズム1〜3の有効性を検証するために、C言語によるシミュレータを作成し、図11に示す動作レベルのシミュレーションを行った。連想メモリとして256ビットの参照データを30パターン格納できるものを仮定した。図11に示すように、連想メモリには予め参照データとして文字のビットマップデータが30種類記憶されている。参照データ30個のうち上位rankの20個(NL )は長期記憶とし、残りの10個(NS )は短期記憶とした。
アルゴリズムの各種パラメータとして、アルゴリズム1では、認識時にwinner=長期記憶の場合のrank上げ幅JL を6、winner=短期記憶の場合のrank上げ幅JS を3とした。アルゴリズム2では、短期記憶から長期記憶に移るのに必要な認識の回数kを2、移る際のrankを14とした。アルゴリズム3では、参照データにない検索データをrank1に記憶するものとした。そして、入力データとして、参照データにない新しいアルファベットのビットマップデータ20種類と256ビットの各ビットをランダムに“1”,“0”にしたビットマップデータ(ノイズパターン)を連想メモリに入力することで、認識・学習処理を行い、最終的に20個のアルファベットを学習することができるかを検証した。
ここで、入力データの生成は、まず与えるデータが文字データかノイズデータかを決定して、文字データなら20種類の中から選択し、ノイズデータが選択されるとランダムにノイズデータを生成し入力した。各々の選択確率は同じ確率とした。上述の方法で入力データを与えた場合に、長期記憶(上位20個の参照データ)に学習された新たなアルファベットデータの個数とそれに要した検索回数のシミュレーション結果を図12に示す。
図12(a)は、アルゴリズム3の場合を示している。このアルゴリズム3では、ノイズパターンも次々にrank1に学習されていくので、新規データ:ノイズデータ=1:1の影響がそのまま結果として現れる。
図12(b)は、アルゴリズム2の場合を示している。このアルゴリズム2では、学習したデータ数が増えるにつれ(学習するデータが減るにつれ)学習に要する時間が多くなるが、最終的に全ての新規データを学習することが可能となる。
図12(c)は、アルゴリズム1の場合を示している。このアルゴリズム1では、アルゴリズム2と同様に、まず短期記憶にデータを学習するため、ノイズパターンが長期記憶に記憶されることはない。また、長期記憶に移る条件の違いから、アルゴリズム2より早く全ての新規データを学習することができる。
結果として、アルゴリズム3では、参照データに無い検索データはrank1に記憶される。最初は、検索データが(ノイズデータも含め)rankの上位から押し出すように初期の参照データを削除されていき、参照データの中には、1:1で新規データとノイズデータが記憶されていることになる。
アルゴリズム1,2がアルゴリズム3と異なるのは、短期記憶・長期記憶の区別をもっている点で、入力はまず短期に入り、短期記憶において検索データとの一致を経て長期記憶へと移る。よって、ノイズパターンのようにマッチングしないデータは長期記憶へ入ることができない。これにより、新規データのみrank1〜20に学習することができる。つまりノイズデータの影響を受けて参照データが長期記憶から消えるようなことがない。
図13は上記連想メモリベースの認識・学習アルゴリズムを実現するアーキテクチャの概略構成を示すブロック図である。このアーキテクチャは、最小距離検索を行う連想メモリ100、ランキング処理回路200、自動学習制御回路300の3ブロックから構成される。
上記最小距離連想メモリ100としては、我々がこれまでに開発しているディジタル・アナログ融合回路による全並列最小ハミング・マンハッタン距離検索連想メモリ(特許文献1〜3参照)などが使用可能である。本アーキテクチャでは、入力データ−winner間距離Dも必要になるため、距離Dをディジタルで計算する距離計算回路を付加したものを用いる。
ランキング処理回路200は、rankを対応付けられた参照データ(連想メモリ上のアドレス)を記憶し、図3乃至図5で説明した短期・長期記憶を実現するrank操作の処理を行う。このランキング処理回路200は、具体的には図14に示すように構成される。
図14(a)は、参照データ64個を処理するランキング処理回路の構成例を示すもので、Dフリップフロップ(DFF)とその入出力を決定するトライステートバッファ(TBUF)からなるrankモジュールを多段接続して構成される。ここでは、参照データ64個に対応して、DFFが縦に64個、横に6個(6bit=log264)並んでおり、各DFFの入出力部にトライステートバッファが接続されている。
各行のDFFには、それぞれ連想メモリ100上の参照データのアドレス(6ビット)が記憶されており、上から順にrank1からrank64となる。トライステートバッファは、(1)DFFの出力をバスに接続するラインに接続したもの(TBUF−A)、(2)バスを入力としDFFの入力に信号を出力するもの(TBUF−B)、及び(3)DFFの出力を次の行のDFFの入力に接続したもの(TBUF−C)の3種類がある。
TBUF−A,Bはrankを繰り上げる際の参照データのアドレスのパスを作り、TBUF−Cは、rankを繰り下げるデータのパスを作る。例えば、図6Bで説明した動作を実現するためには、図14(b)に示すように制御信号a[63],b[60],c[60],c[61],c[62]をオンにしてTBUFを制御し、DFFのクロック信号ck[60],ck[61],ck[62],ck[63]を入力する。これにより、図中矢印で示すようなデータの流れを実現することができる。
このようなランキング処理回路200に対し、自動学習制御回路300では、連想メモリ100からの検索結果(winnerのアドレス)に対して各行のDFFから一致するものを検索し、winnerのrankを得てランキング処理回路200のランク設定を制御する。winnerのrankを得るのは、詳細なアーキテクチャ中の完全一致回路120(ランキング処理に記憶された参照データのアドレスとwinnerのアドレスの一致する行を調べることによりwinnerのrankが判る)であり、この3つのブロックに分けた大まかなアーキテクチャでは自動学習制御回路に一部として含まれている。尚、アルゴリズム中のJL やJS 、参照データの長期記憶・短期記憶の数といった値は任意に設定ができる。
自動学習制御回路300は、連想メモリ100とランキング処理回路の制御を行う。連想メモリ100の検索結果から、入力データとwinner間距離Dに応じてランキング処理回路200の制御信号を生成し、距離Dがしきい値以上の場合(図6Cの新規学習のケース)は、ランキング処理回路200の制御に加え、最下位のrankにあった参照データに入力データを書き込むように連想メモリ100を制御する。
このように、自動学習制御回路300では、アルゴリズム中のパラメータJL ,JS 、しきい値、参照データ数における短期記憶の数、連想メモリ100の検索結果、検索データ−winner間距離により連想メモリ100及びランキング処理回路200の制御を行う。
図15に今回テストチップとして試作した詳細なアーキテクチャを示す。連想メモリブロック100は、メモリブロック101、最小距離検索回路102、検索データ保存回路103、行デコーダ104及びRW・列デコーダ・距離計算回路105を備える。内部のSRAMによるメモリブロック101には参照データが保存され、検索データ保存回路103には最小距離検索を行うデータが入力される。また、連想メモリ100には、入力データとメモリブロック内の特定のデータとの距離を直接求める回路105も組み込まれている。この回路105は、アルゴリズムで使用する距離Dを求めるために用いる。
上記連想メモリ100に付加されるプライオリティエンコーダ110はwinnerが複数ある場合に1つを選択するプライオリティエンコードを行い、6bitのwinnerのアドレスを出力する。
ランキング処理回路200は、図14で説明した回路であり、自動認識・学習アルゴリズムの核となる参照データのrankの操作を行う。
完全一致検索回路120は、プライオリティエンコーダ110の出力のwinnerのアドレスとランキング処理回路200の各参照データのアドレスとの完全一致検索を行い、winnerのrankを調べる回路である。また、第1のコンパレータ310は、winnerのrankと外部からパラメータとして与えられる短期・長期記憶の境界のrankとの比較を行い、winnerが長期記憶に属するか、短期記憶に属するかを判断する。第2のコンパレータ320は、距離計算回路105により求められた距離Dと外部から与えられたしきい値(th)との比較結果を制御回路330に渡す。第1のセレクタ130は、連想メモリ100からの64個の出力を8個ずつ分割してチップから出力する。第2のセレクタ340は第1のコンパレータ310の出力結果により認識時のrankの上げ幅をJL もしくはJS に決定するものである。
制御回路330は、メモリブロックにデータの読み書きを行う通常のメモリ動作であるメモリモード(RM)、最小距離検索を行うCAMモード(CM)、及び最小距離探索の結果に応じて動作する学習モード(LM)などの各種動作モードに応じて連想メモリブロック100やランキング処理回路200を制御する。
上記構成によるアーキテクチャのテストチップを0.35μm CMOS技術を用いて、3層配線、4.9mm角、電源電圧3.3Vの条件で試作を行った。連想メモリブロックはフルカスタム設計により、参照データ64個処理可能な5ビット×16ユニットのマンハッタン距離連想メモリを設計した。また、自動学習制御回路とランキング処理回路は、ハードウェア記述言語Verilog-HDLによりレジスタトランスファレベル(RTL)で設計・シミュレーションを行い、スタンダードセルライブラリを用いて自動論理合成ツールにてクロック周波数20MHzで論理合成をした。そして、自動配置配線ツールにより、連想メモリマクロを組み込んだ全体のレイアウト作成を行った。
図16に自動学習制御回路とランキング処理回路のみのテストチップのチップ写真を示す。図17は図15の全回路を組み込んだテストチップのレイアウトである。このテストチップの諸元を図18に一覧表示する。連想メモリは250nsec以内に最小距離検索を終え、自動学習回路は最大動作周波数166MHz(ゲートレベルシミュレーション)で動作する。そして、連想メモリから最小距離検索の結果と入力データ−winner間距離Dのデータを受け取って1クロックでランキングの処理のための信号を生成し、入力データ学習時は連想メモリへのデータ更新の信号を生成する。
以上の試作チップにより、前述のシミュレーションについてテストした結果、目的通りの自動学習が実現された。このことから、本発明の連想メモリベースの認識・学習アルゴリズムの採用によって、プロセッサやニューラルネットワークによる従来の認識・学習システムでは不可能であった自動学習機能搭載の集積回路化が実現された。将来は、1パターン当たり数百nsec以内でパターン認識・学習が得られることが期待される。
尚、上記実施形態では、ランクを2階層に分けて長期記憶と短期記憶で管理するようにしたが、本発明はこれに該当するものではない。例えば、任意のランク数で優先度順に3個以上の記憶層に分け、初期登録時には短期記憶側の記憶層の所定ランクに設定し、同一性の判断で「同一」の判断が得られるときは同じ記憶層内でランクを繰り上げ、所定の条件を満たすとき、長期側の上位の記憶層に登録するようにしてもよい。このような多階層の構造において、各記憶層間の繰り上げは、2階層の場合と同様に、同一性の判断で「同一」との判断が規定回数生じた場合のみ実行するとよいことは勿論である。
本発明は、人工知能システム、自律ロボット、認証システム、IDS(不正侵入検知システム)、パターン認識システム等に適用可能である。
11…画像入力部、12…補正処理部、13…特徴抽出部、14…検索部、15…データベース、16…認識部、17…出力部、
100…連想メモリ、200…ランキング処理回路、300…自動学習制御回路、
101…メモリブロック、102…最小距離検索回路、103…検索データ保存回路、104…行デコーダ、105…RW・列デコーダ・距離計算回路、110…プライオリティエンコーダ、120…完全一致検索回路、310…第1のコンパレータ、320…第2のコンパレータ、130…第1のセレクタ、340…第2のセレクタ、330…制御回路。
100…連想メモリ、200…ランキング処理回路、300…自動学習制御回路、
101…メモリブロック、102…最小距離検索回路、103…検索データ保存回路、104…行デコーダ、105…RW・列デコーダ・距離計算回路、110…プライオリティエンコーダ、120…完全一致検索回路、310…第1のコンパレータ、320…第2のコンパレータ、130…第1のセレクタ、340…第2のセレクタ、330…制御回路。
Claims (14)
- 入力パターンの検索データと比較して認識するために格納される複数の参照データに優先度に応じたランクを付けておき、
前記検索データを入力する毎に前記複数の参照データと比較して最も類似する参照データを選び、
両者の類似度から両者が同一か否かを判断し、
同一と判断される場合には該当する参照データのランクを規定数繰り上げて繰り上げ先以下の他の参照データのランクを順次繰り下げ、
同一でないと判断される場合には前記検索データを前記参照データとして所定のランクで登録し登録先以下の他の参照データのランクを順次繰り下げることを特徴とする参照データ認識・学習方法。 - 前記検索データと参照データとの同一性の判断は、前記検索データと前記参照データとの最小距離を演算し、その最小距離が所定のしきい値以内であるときは同一、それ以外を同一でないと判断することを特徴とする請求項1記載の参照データ認識・学習方法。
- 前記同一性の判断で同一でないと判断される場合には、前記検索データを前記参照データとして所定のランクで登録する際に、最低ランクの参照データを破棄することを特徴とする請求項1記載の参照データ認識・学習方法。
- 前記ランクは、任意のランク数で優先度順に複数個の記憶層に分け、初期登録時には短期記憶側の記憶層の所定ランクに設定し、前記同一性の判断で「同一」の判断が得られるときは同じ記憶層内でランクを繰り上げ、所定の条件を満たすとき、長期側の上位の記憶層に登録することを特徴とする請求項1記載の参照データ認識・学習方法。
- 前記記憶層間の繰り上げは、前記同一性の判断で「同一」との判断が規定回数生じた場合のみ実行することを特徴とする請求項4記載の参照データ認識・学習方法。
- 前記同一性の判断で、前記検索データ及び参照データが同一であると判断されたときはその参照データを最上位のランクに繰り上げ、同一でないと判断された場合には、その検索データを新たな参照データとして最上位のランクに設定登録することを特徴とする請求項1記載の参照データ認識・学習方法。
- 少なくとも、入力パターンの検索データを認識するための複数の参照データを記憶する参照データ記憶手段、前記検索データと最小距離にある参照データを求める最小距離検索手段、及び前記連想メモリで得られる最小距離がしきい値以上か否かに応じて前記検索データと最小距離の参照データとの同一性を判断する判断手段を備える連想メモリと、
前記連想メモリに記憶される複数の参照データを、それぞれ優先度に応じたランキングを付して管理するランキング処理手段と、
前記判断手段で検索データと参照データとが同一であると判断されたとき、前記ランキング処理手段に該当参照データのランクを繰り上げて繰り上げ先以下の参照データのランクを順次繰り下げ、前記検索データと参照データとが同一でないと判断されたとき、前記連想メモリに該当検索データを新たな参照データとして記憶させ、前記ランキング処理手段に新参照データのランクを初期値に設定し、設定ランク以下の参照データのランクを繰り下げる認識学習制御手段とを具備することを特徴とするパターン認識システム。 - 前記判断手段で求める前記検索データと前記参照データとの最小距離は、ハミング距離、マンハッタン距離またはユークリッド距離であることを特徴とする請求項7記載のパターン認識システム。
- 前記ランキング処理手段は、前記連想メモリに記憶される参照データのランクをそれぞれのアドレス値で管理することを特徴とする請求項7記載のパターン認識システム。
- 前記制御手段は、前記判断手段で同一でないと判断される場合には、前記連想メモリに対し、前記ランキング処理手段で最低ランクに設定される参照データのアドレスに前記検索データを参照データとして上書きするように制御することを特徴とする請求項9記載のパターン認識システム。
- 前記ランキング処理手段は、任意のランク数で優先度順に複数個の記憶層に分け、初期登録時には短期記憶側の記憶層の所定ランクに設定し、前記判断手段で「同一」の判断が得られる毎に同じ記憶層内でランクを繰り上げ、所定の条件を満たすとき、長期側の上位の記憶層に登録することを特徴とする請求項7記載のパターン認識システム。
- 前記ランキング処理手段は、前記記憶層間の繰り上げは、前記判断手段で「同一」との判断が規定回数生じた場合のみ実行することを特徴とする請求項11記載のパターン認識システム。
- 前記ランキング処理手段は、前記判断手段で「同一」と判断されたときはその参照データを最上位のランクに繰り上げ、同一でないと判断されたときは、その検索データを新たな参照データとして最上位のランクに設定登録することを特徴とする請求項7記載のパターン認識システム。
- 前記連想メモリ、ランキング処理手段及び認識学習制御手段は、1チップ集積回路に組み込まれることを特徴とする請求項7記載のパターン認識システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003434596A JP2005190429A (ja) | 2003-12-26 | 2003-12-26 | 参照データ認識・学習方法及びパターン認識システム |
TW093139612A TWI297862B (en) | 2003-12-26 | 2004-12-20 | Reference data recognition and learning method and pattern recognition system |
EP04030174A EP1550977A1 (en) | 2003-12-26 | 2004-12-20 | Reference data recognition and learning method and pattern recognition system |
US11/015,038 US7561743B2 (en) | 2003-12-26 | 2004-12-20 | Reference data recognition and learning method and pattern recognition system |
KR1020040112333A KR20050067090A (ko) | 2003-12-26 | 2004-12-24 | 참조 데이터 인식 학습 방법 및 패턴 인식 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003434596A JP2005190429A (ja) | 2003-12-26 | 2003-12-26 | 参照データ認識・学習方法及びパターン認識システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005190429A true JP2005190429A (ja) | 2005-07-14 |
Family
ID=34567565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003434596A Pending JP2005190429A (ja) | 2003-12-26 | 2003-12-26 | 参照データ認識・学習方法及びパターン認識システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US7561743B2 (ja) |
EP (1) | EP1550977A1 (ja) |
JP (1) | JP2005190429A (ja) |
KR (1) | KR20050067090A (ja) |
TW (1) | TWI297862B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007080375A (ja) * | 2005-09-14 | 2007-03-29 | Hiroshima Univ | 最小ユークリッド距離検索連想メモリ装置 |
JP2022521174A (ja) * | 2019-02-25 | 2022-04-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ入力信号からのコグニティブ・クエリへの応答 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295603B2 (en) * | 2007-03-28 | 2012-10-23 | Sharp Kabushiki Kaisha | Image processing apparatus, image forming apparatus, image processing system, and image processing method |
US8214672B2 (en) * | 2009-01-07 | 2012-07-03 | Micron Technology, Inc. | Method and systems for power consumption management of a pattern-recognition processor |
KR101067376B1 (ko) * | 2009-04-29 | 2011-09-23 | 서울대학교산학협력단 | 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치 |
TWI402786B (zh) * | 2010-03-10 | 2013-07-21 | Univ Nat Taiwan | 概念圖學習系統及方法 |
US9015091B2 (en) | 2011-11-09 | 2015-04-21 | Qualcomm Incorporated | Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling |
US9424513B2 (en) | 2011-11-09 | 2016-08-23 | Qualcomm Incorporated | Methods and apparatus for neural component memory transfer of a referenced pattern by including neurons to output a pattern substantially the same as the referenced pattern |
US9424511B2 (en) | 2011-11-09 | 2016-08-23 | Qualcomm Incorporated | Methods and apparatus for unsupervised neural component replay by referencing a pattern in neuron outputs |
US9443190B2 (en) | 2011-11-09 | 2016-09-13 | Qualcomm Incorporated | Methods and apparatus for neural pattern sequence completion and neural pattern hierarchical replay by invoking replay of a referenced neural pattern |
KR102523967B1 (ko) * | 2016-03-25 | 2023-04-21 | 에스케이하이닉스 주식회사 | 데이터 저장 장치 및 그것의 동작 방법 및 그것을 포함하는 데이터 처리 시스템 |
CN108647390B (zh) * | 2018-01-31 | 2022-04-22 | 深圳大学 | 标准单元库设计方法、设计装置、标准单元库和cmos图像传感芯片 |
JP7075771B2 (ja) * | 2018-02-08 | 2022-05-26 | 株式会社Screenホールディングス | データ処理方法、データ処理装置、データ処理システム、およびデータ処理プログラム |
CN109034254B (zh) * | 2018-08-01 | 2021-01-05 | 优刻得科技股份有限公司 | 定制人工智能在线服务的方法、***和存储介质 |
US11262913B2 (en) * | 2019-03-28 | 2022-03-01 | Intel Corporation | Technologies for efficient stochastic associative search operations with error-correcting code |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4783830A (en) * | 1987-03-24 | 1988-11-08 | American Electronics, Inc. | Pattern recognizing content addressable memory system |
US5305389A (en) * | 1991-08-30 | 1994-04-19 | Digital Equipment Corporation | Predictive cache system |
JPH06203075A (ja) | 1992-12-28 | 1994-07-22 | Oki Electric Ind Co Ltd | 電子電話帳 |
US6378042B1 (en) * | 1999-08-11 | 2002-04-23 | Fast-Chip, Inc. | Caching associative memory |
DE10026301A1 (de) | 2000-05-26 | 2001-11-29 | Sick Ag | Verfahren und Vorrichtung zur Bildverarbeitung |
DE60113564T2 (de) | 2000-12-14 | 2006-07-13 | Matsushita Electric Works, Ltd., Kadoma | Bildverarbeitungseinrichtung und Mustererkennungsvorrichtung, bei der die Bildverarbeitungseinrichtung verwendet wird |
JP3731046B2 (ja) | 2001-01-19 | 2006-01-05 | 国立大学法人広島大学 | 半導体連想メモリ |
US6745280B2 (en) * | 2002-03-28 | 2004-06-01 | Integrated Device Technology, Inc. | Content addressable memories having entries stored therein with independently searchable weight fields and methods of operating same |
JP3742878B2 (ja) | 2002-05-31 | 2006-02-08 | 国立大学法人広島大学 | 自己調整型ウィンナ・ラインアップ増幅器 |
JP2004013504A (ja) | 2002-06-06 | 2004-01-15 | Univ Hiroshima | パターン認識システム、このシステムに用いられる連想メモリ装置及びパターン認識処理方法 |
US7069388B1 (en) * | 2003-07-10 | 2006-06-27 | Analog Devices, Inc. | Cache memory data replacement strategy |
-
2003
- 2003-12-26 JP JP2003434596A patent/JP2005190429A/ja active Pending
-
2004
- 2004-12-20 TW TW093139612A patent/TWI297862B/zh not_active IP Right Cessation
- 2004-12-20 US US11/015,038 patent/US7561743B2/en active Active
- 2004-12-20 EP EP04030174A patent/EP1550977A1/en not_active Withdrawn
- 2004-12-24 KR KR1020040112333A patent/KR20050067090A/ko not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007080375A (ja) * | 2005-09-14 | 2007-03-29 | Hiroshima Univ | 最小ユークリッド距離検索連想メモリ装置 |
JP2022521174A (ja) * | 2019-02-25 | 2022-04-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ入力信号からのコグニティブ・クエリへの応答 |
JP7427011B2 (ja) | 2019-02-25 | 2024-02-02 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ入力信号からのコグニティブ・クエリへの応答 |
Also Published As
Publication number | Publication date |
---|---|
TWI297862B (en) | 2008-06-11 |
EP1550977A1 (en) | 2005-07-06 |
US7561743B2 (en) | 2009-07-14 |
KR20050067090A (ko) | 2005-06-30 |
US20050154726A1 (en) | 2005-07-14 |
TW200529095A (en) | 2005-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005190429A (ja) | 参照データ認識・学習方法及びパターン認識システム | |
CN100547613C (zh) | 参考数据优化学习方法及模式识别*** | |
CN111046664A (zh) | 基于多粒度的图卷积神经网络的假新闻检测方法及*** | |
CN110363049B (zh) | 图形元素检测识别和类别确定的方法及装置 | |
TW201626293A (zh) | 由知識圖譜偏置的資料分類 | |
CN109783666A (zh) | 一种基于迭代精细化的图像场景图谱生成方法 | |
CN101097564A (zh) | 参数学习方法及设备、模式识别方法及设备 | |
US11514315B2 (en) | Deep neural network training method and apparatus, and computer device | |
US20220067488A1 (en) | Feedback mechanisms in sequence learning systems with temporal processing capability | |
CN110705573A (zh) | 一种目标检测模型的自动建模方法及装置 | |
JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
US20190065962A1 (en) | Systems And Methods For Determining Circuit-Level Effects On Classifier Accuracy | |
JP2022082493A (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 | |
CN114896395A (zh) | 语言模型微调方法、文本分类方法、装置及设备 | |
CN114239083B (zh) | 一种基于图神经网络的高效状态寄存器识别方法 | |
CN110867225A (zh) | 字符级临床概念提取命名实体识别方法及*** | |
US20230186155A1 (en) | Machine learning method and information processing device | |
CN116955616A (zh) | 一种文本分类方法及电子设备 | |
CN115630136A (zh) | 用于长文本的语义检索及问答处理方法、装置及电子设备 | |
CN114282535A (zh) | 基于上下文语义精准地域识别方法、***及电子设备 | |
CN114758191A (zh) | 一种图像识别方法、装置及电子设备和存储介质 | |
JP2008299644A (ja) | 連想記憶装置、連想記憶方法、及びプログラム | |
CN112529179A (zh) | 基于遗传算法的对抗训练方法、装置和计算机存储介质 | |
CN114792084A (zh) | 一种针对大规模sram阵列电路后仿真的高效良率分析方法 | |
CN113536859A (zh) | 行为识别模型训练方法、识别方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060801 |