JP2005352900A - 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 - Google Patents

情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 Download PDF

Info

Publication number
JP2005352900A
JP2005352900A JP2004174601A JP2004174601A JP2005352900A JP 2005352900 A JP2005352900 A JP 2005352900A JP 2004174601 A JP2004174601 A JP 2004174601A JP 2004174601 A JP2004174601 A JP 2004174601A JP 2005352900 A JP2005352900 A JP 2005352900A
Authority
JP
Japan
Prior art keywords
layer
predetermined
processing module
learning
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004174601A
Other languages
English (en)
Other versions
JP2005352900A5 (ja
Inventor
Masakazu Matsugi
優和 真継
Katsuhiko Mori
克彦 森
Mie Ishii
美絵 石井
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004174601A priority Critical patent/JP2005352900A/ja
Priority to US11/149,698 priority patent/US7676441B2/en
Publication of JP2005352900A publication Critical patent/JP2005352900A/ja
Publication of JP2005352900A5 publication Critical patent/JP2005352900A5/ja
Priority to US12/696,993 priority patent/US8015130B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 モジュール構造を有する階層型神経回路網において被写体認識に必要な特徴クラスを自動的かつ効率的に学習する為の技術を提供すること。
【解決手段】 所定のパターンをデータ入力層101に提示することにより、未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行う。
【選択図】 図2

Description

本発明は、階層型ニューラルネットワークの演算処理を行うための技術に関するものである。
学習により、新規なカテゴリのパターン認識を可能にする方法として、多層パーセプトロン、動径基底関数(Radial Basis Function)ネットワークなど神経回路網を用いる方法が良く知られる。特に、ノイズの影響を低減可能なモデルとして、局所的特徴の階層的テンプレートマッチングを行う方法(例えば非特許文献1を参照)では、新規なカテゴリの追加学習の可能なモデルの一つである。
特許文献1では、誤認識信号に従い、中間層における抑制性ユニットのしきい値の修正若しくは新たな興奮性ユニットの追加、又は中間層計算部における興奮性ユニットのしきい値の修正または新たな抑制性ユニットの追加を行うことにより、追加学習を可能にしている。
特許文献2では、学習の進み具合いを反映した学習制御信号を、大分類部が出力する群帰属度で重み付けした信号にもとづいて細分類部の重み修正を行う。カテゴリ追加部が必要に応じて細分類部に新たなカテゴリを追加するため、効率的に追加学習を行うことが可能である。
特許文献3では、認識不良パターンデータと誤認識時のパターン認識内部状態データとを用いてパターン検定部の学習を制御することにより、再学習をしないで追加学習を繰り返すことにより、誤認識を低減する構成を開示した。
特許文献4では、既に学習済みの結合を有し、利用者が任意のシナプス結合を書き換えられる学習制御手段、追加学習用の教師信号を中間層ニューロンに提示させる機構を備えている。
特許文献5では、中間層と出力層との間の学習係数を入力層と中間層との間の学習係数よりも大きくすることにより、学習済みの疎結合モジュールの構造を大きく変更することなく、高速な学習方法を開示している。
未学習パターンを適格に識別する方法として特許文献6では、カテゴリの範囲外となる境界パターンが入力ユニット群に入力されたときに、出力ユニット群の各ユニット出力を0または小さい値となるように学習をさせる。
誤差逆伝播法により学習を行う階層的神経回路網においては、隠れ層のユニットを追加して行う組み立て型誤差逆伝播法(Constructive BP:以下、CBP法と略記)が知られる(例えば非特許文献2を参照)。このCBP法では、学習済みの結合は固定して追加されたユニットから出力層への結合のみをBPに従って更新する。
柳川、福島、吉田 『追加学習可能なネオコグニトロン』 電子情報通信学会技術報告NC2001−176,pp.63−70,2002 M. Lehtokangas, "Modeling with constructive backpropagation," Neural Networks, vol.12, pp.707-716, 1999 特登録2780454号公報 特登録第2779119号公報 特開平9−62648号公報 特開平5−274455号公報 特開2002−42107号公報 特開平9−138785号公報
しかしながら上記従来例では、いずれも任意の新規のパターン(未学習の特徴的なパターン)の認識のための学習(神経回路網のモジュール数や結合荷重分布など、内部パラメータの調整)を効率的に行うことが困難であるという問題を有している。また任意のパターンを内部表現するのに有用な特徴の種類が何であるかが事前には分からなという問題、若しくは、有用な特徴の検出に適した演算素子間の結合(いわゆる受容野構造)の学習が効率的に行えないという問題を少なからず残している。
例えば、非特許文献1では、ランダム結合を有する所定のS層ニューロンが他の特徴クラスに選択性を持つS層ニューロンと比べて大きい出力を出す場合に、新たな特徴カテゴリ検出用のクラスを追加することにより、追加学習を可能にしているが、そこで学習される特徴クラスが、新規かつ有効な特徴カテゴリであるという保証はなく、また他のクラスの対象を認識するのに有効であるという保証もない。
また、非特許文献2では、新規に追加されたユニットが誤差を最小にするような学習、即ち与えられたパターン認識の課題、特に新規な特徴カテゴリの検出に有用な特徴クラスの検出に適した結合を学習するという保証が必ずしも無いため、複雑なパターンを認識するのに全体として効率的な学習を行うことが困難であるという問題がある。
特許文献2では、学習すべき入力パターン信号の属するカテゴリが学習を行う細分類部に属していない場合、カテゴリ辞書に現在入力されているパターン信号を参照用パターンとして入力し、新たなカテゴリを認識する為の追加学習を可能にする構成を示しているが、参照用パターンそのものを新たなカテゴリとして入力する為に、そのパターンに変形があった場合でも適正に認識できるという保証がないため、少ないハードウエアリソース(回路要素若しくはメモリ空間)を用いての効率的な認識および学習動作が困難であるという問題点を有していた。
特許文献4では、特に入力層側のシナプス結合を学習させ、出力層側の結合は固定にしているが、新規のカテゴリに対応する新たな処理モジュールの追加などは行わないので、環境適応性、汎化性を充分に実現することが困難であった。
本発明は以上の問題に鑑みてなされたものであり、モジュール構造を有する階層型神経回路網において被写体認識に必要な特徴クラスを自動的かつ効率的に学習する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
すなわち、データ入力層と、複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、を有する並列階層処理を行う情報処理装置であって、
所定の少なくとも一つの階層レベルの前記演算処理層において所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習処理モジュールとを備え、
所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
すなわち、データ入力層と、検出すべき特徴クラスに対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、学習制御回路と、処理モジュール追加・削除回路と、を有する情報処理装置であって、
前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすか否かを判定する判定手段と、
前記判定手段が前記所定の条件を満たすと判定した場合、前記階層レベルより下位の層において前記処理モジュール追加・削除回路に、少なくとも一つの処理モジュールを追加させるよう制御する制御手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
すなわち、所定の入力データを入力する入力層と、
所定のデータセットに関して独立成分分析を行う独立成分分析手段と、
学習制御手段と、
複数の検出すべき特徴クラスそれぞれに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
前記独立成分分析の結果得られる所定の基底データセットと前記入力データとから、所定の前記処理モジュールが学習すべき所定の特徴クラスを含む学習用入力データを設定し、所定のメモリに格納する学習用データ設定手段と、
を有する情報処理装置であって、
所定の少なくとも一つの階層レベルの前記演算処理層は、
所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
を備え、
前記学習制御手段は、所定の前記学習用入力データを前記演算処理層の所定の層に呈示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明のパターン認識装置は以下の構成を備える。
すなわち、データ入力層と、
複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
学習制御手段と、
前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを備え、
所定の少なくとも一つの階層レベルの前記演算処理層は、所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
を備え、
前記学習制御手段は、所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明のパターン認識装置は以下の構成を備える。
すなわち、データ入力層と、
検出すべき特徴クラスに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
学習制御回路と、
処理モジュール追加・削除回路と、
前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを有し、
前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすときに、前記階層レベルより下位の層において前記処理モジュール追加・削除回路は、少なくとも一つの処理モジュールを追加することを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
すなわち、データ入力層と、複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、所定の少なくとも一つの階層レベルの前記演算処理層において所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習処理モジュールとを備える情報処理装置が行う情報処理方法であって、
所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
すなわち、データ入力層と、検出すべき特徴クラスに対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、学習制御回路と、処理モジュール追加・削除回路と、を有する情報処理装置が行う情報処理方法であって、
前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすか否かを判定する判定工程と、
前記判定工程で前記所定の条件を満たすと判定した場合、前記階層レベルより下位の層において前記処理モジュール追加・削除回路に、少なくとも一つの処理モジュールを追加させるよう制御する制御工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
すなわち、所定の入力データを入力する入力層と、
所定のデータセットに関して独立成分分析を行う独立成分分析手段と、
学習制御手段と、
複数の検出すべき特徴クラスそれぞれに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
前記独立成分分析の結果得られる所定の基底データセットと前記入力データとから、所定の前記処理モジュールが学習すべき所定の特徴クラスを含む学習用入力データを設定し、所定のメモリに格納する学習用データ設定手段と、
を有し、所定の少なくとも一つの階層レベルの前記演算処理層は、
所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールとを備える情報処理装置が行う情報処理方法であって、
前記学習制御工程では、所定の前記学習用入力データを前記演算処理層の所定の層に呈示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明のパターン認識方法は以下の構成を備える。
すなわち、データ入力層と、
複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
学習制御手段と、
前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを備え、
所定の少なくとも一つの階層レベルの前記演算処理層は、所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
を備えるパターン認識装置が行うパターン認識方法であって、
前記学習制御工程では、所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする。
本発明の目的を達成するために、例えば本発明のパターン認識方法は以下の構成を備える。
すなわち、データ入力層と、
検出すべき特徴クラスに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
学習制御回路と、
処理モジュール追加・削除回路と、
前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを有するパターン認識装置が行うパターン認識方法であって、
前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすときに、前記階層レベルより下位の層において前記処理モジュール追加・削除回路は、少なくとも一つの処理モジュールを追加することを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
すなわち、データ入力層とデータ出力層との間に、前段の層からの出力から検出すべきそれぞれの特徴量を検出するための複数の処理モジュールを備える検出層、当該検出層からの出力を統合して出力する統合層、の各層を交互に配置することにより構成される階層型ニューラルネットワークにおいて、所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値を所望の出力値とすべく、層間の結合定数を修正する処理を行う情報処理装置であって、
所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値と、所望の出力値との誤差を求める誤差計算手段と、
前記データ入力層から、前記所定の処理モジュールに出力値を出力する層までの間に配置された各層の内1つ以上の層内に、前記誤差に応じて処理モジュールを新たに追加する追加手段と、
前記追加手段による追加処理後、前記誤差計算手段による誤差に基づいて、前記所定の検出層から前記データ入力層に向けて所定層数分の層の間の結合定数を修正する修正手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
すなわち、データ入力層とデータ出力層との間に、前段の層からの出力から検出すべきそれぞれの特徴量を検出するための複数の処理モジュールを備える検出層、当該検出層からの出力を統合して出力する統合層、の各層を交互に配置することにより構成される階層型ニューラルネットワークにおいて、所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値を所望の出力値とすべく、層間の結合定数を修正する処理を行う情報処理方法であって、
所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値と、所望の出力値との誤差を求める誤差計算工程と、
前記データ入力層から、前記所定の処理モジュールに出力値を出力する層までの間に配置された各層の内1つ以上の層内に、前記誤差に応じて処理モジュールを新たに追加する追加工程と、
前記追加工程による追加処理後、前記誤差計算工程による誤差に基づいて、前記所定の検出層から前記データ入力層に向けて所定層数分の層の間の結合定数を修正する修正工程と
を備えることを特徴とする。
本発明の構成により、モジュール構造を有する階層型神経回路網において被写体認識に必要な特徴クラスを自動的かつ効率的に学習することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は本実施形態におけるパターン認識処理を行う装置(パターン認識装置)の機能構成を示す図である。同図に示した装置は階層型並列処理のための構造を有し、画像データを入力して特定カテゴリの対象(被写体)、または、それを構成する局所的特徴(例えば、幾何学的特徴)などの検出に関与する情報を主として扱う。その処理結果として、入力データ中に特定カテゴリの認識対象が存在するか否か、存在する場合にはどこにあるかなどの情報が出力される。
本パターン認識装置は、画像入力装置100、ネットワーク処理回路10、教示用データ保持メモリ20、処理モジュール追加・削除制御回路30、学習制御回路40、表示装置200から構成される。
ネットワーク処理回路10は、並列階層処理による画像認識を行い、表示装置200に処理結果を出力する。教示用データ保持メモリ20は、認識対象が構成要素として含むような局所的特徴のデータを教示用データとして保持するメモリである。この教示用データは、ネットワーク処理回路10中の所定の特徴検出用処理モジュールに対して提示され、学習制御回路40による制御のもとで、提示を受けた処理モジュール及びそのモジュールが入力を受ける他の処理モジュールが所定の学習動作を行う際に用いられる。より詳しい説明は後で行う。
処理モジュール追加・削除制御回路30は、ネットワーク処理回路10内にある任意の処理層において、所定の特徴検出を行うための処理モジュールの追加又は削除を行うための制御回路である。各処理モジュールの構成及び処理内容については、後で説明する。
図2は、本実施形態で用いるネットワーク処理回路10の機能構成を示す図である。ネットワーク処理回路10は、図2に示す如く、階層型ニューラルネットワークを用いた処理を行う。以下、この階層型ニューラルネットワークについて説明する。
同図の構成は、いわゆる畳み込み神経回路網もしくはConvolutionalネットワーク構造(LeCun, Y. and Bengio, Y., 1995, “Convolutional Networks for Images Speech, and Time Series”in Handbook of Brain Theory and Neural Networks (M. Arbib, Ed.), MIT Press, pp.255-258)の構成を含んでいる。その最終出力(層(2,N)からの出力)は、認識結果としての認識された対象のカテゴリとその入力データ中の位置である。
Convolutional NNの基本的な構造は、複数の局所特徴が構成要素として適切に配置されてなる「より複雑な局所特徴」を検出する特徴検出層(1,0),(1,1),…と、特徴検出層の出力分布から局所領域内での代表値を抽出することにより、変動に対する認識性能のロバスト性に寄与する特徴統合層(2,0),(2,1),…とが交互に配置される階層構造である。本実施形態では、ネットワーク処理回路10において層内での処理モジュール間の相互作用はなく、層間結合のみが存在する。
特徴検出層の各層は、所定のクラス(カテゴリ)の複合局所特徴を検出する複数の処理モジュールを内蔵する。特徴検出層内の各処理モジュールには、入力画像データの各サンプリング位置に対応して存在する特徴検出素子(ニューロン)が配列される。最下位層(1,0)を除く特徴検出層(1,1),(1,2),…内の各特徴検出素子は前段層である特徴統合層の複数の処理モジュール(又はデータ入力層)から、より低次の局所特徴検出結果に対応する出力を受ける。
それぞれの局所特徴は、特徴検出素子が検出する複合局所特徴を構成するものである。また、この複合局所特徴は、より上位の特徴検出層で検出される特徴を構成する局所特徴という関係になる。処理モジュール内の各ニューロンは、同一のクラスの局所特徴を検出するために同じ受容野構造を有する。これは、Convolutional ネットワーク(畳み込み神経回路網)に特有のものであり、以下、共有受容野構造と称する。特徴統合層の各処理モジュールにおけるニューロンの配列は、入力データとの位置関係が保持されるようなトポロジカルな構造になっている。なお、以下説明するニューロン素子、シナプス回路は当然階層型ニューラルネットワークを構成するものであるので、ネットワーク処理回路10に含まれるものである。
<ニューロン素子>
次に、各層を構成するニューロンについて説明する。各ニューロン素子はいわゆるintegrate-and-fireニューロンを基本として拡張モデル化したもので、入力信号(アクションポテンシャルに相当するパルス列)を時空間的に線形加算した結果が閾値を越したら発火し、パルス状信号を出力する点ではいわゆるintegrate-and-fireニューロンと同じである。
シナプス結合でパルス位相変調を受けたパルスについての時間的積分特性(受信感度特性)を与える図7(b)に示すような重み関数の極大値に相当する時刻τw1は、一般的にシナプス結合で与えられる特徴に固有なパルス(図7(a))の到着予定時刻τs1より時間的に早く設定される。その結果、到着予定時刻より一定範囲で早く(図7の例では、到着の早すぎるパルスは減衰される)到着するパルスは、それを受け取るニューロンでは、高い出力レベルを持ったパルス信号として時間的に積分される。重み関数の形状はガウシアン等の対称形に限らず、非対称形状であってもよい。なお、上述した趣旨より、図7(b)に示した各重み関数の中心は、パルス到着予定時刻ではない。
ニューロン素子としては、窓関数などを用いることにより得られる入力の総和値が閾値を越えたときに、所定タイミング遅れて発振出力を出すような公知の回路構成を用いてもよい。
特徴検出層内のニューロンは、前述したように特徴カテゴリに応じた受容野構造を有し、前段の層(入力層または特徴統合層)のニューロンからの入力パルス信号(電流値または電位)の時間窓関数による後述の荷重総和値が閾値以上となったとき、その総和値に応じて、例えばシグモイド関数等の一定レベルに漸近的に飽和するような非減少かつ非線形な関数、即ちいわゆるsquashing関数値をとるような出力レベル(ここでは位相変化で与えるが、周波数、振幅、パルス幅基準での変化となる構成でもよい)でパルス出力を行う。
<シナプス回路等>
図4Bは、ニューロンnの結合先である各ニューロンn’へのシナプス結合強度(位相遅延等に関する変調の大きさを意味する)を与える各小回路がマトリクス的に配置することにより形成されるシナプス回路の構成を示す図である。
結合荷重値の長期保持のためには、FeRAMやMRAMなどをベースとして用いたアナログ不揮発メモリ、浮遊ゲート素子、或いはデジタルメモリへの書き込み等を行って結合荷重を格納してもよい。その他回路規模を小さくなるように工夫した構成など周知の回路構成を用いることができる。
<各層の処理内容とニューロン受容野構造>
以下、ネットワーク処理回路10を構成する主要部について更に詳しく説明する。データ入力層は、画像センサー手段の場合はCMOSセンサー、或いはCCD素子等の光電変換素子であるが、所定データ解析手段の解析結果(例えば、主成分分析、ベクトル量子化、などの次元縮小を行った結果)から得られる高次元のデータを入力するものであってもよい。
特徴検出層(1,0)は、Gabor wavelet変換その他の多重解像度処理若しくはエッジ線分検出を行う為の層である。画像パターンの局所的な低次の特徴(幾何学的特徴のほか色成分特徴を含んでもよい)を全画面の各位置(或いは、全画面にわたる所定のサンプリング点の各点)において同一箇所で複数のスケールレベル又は解像度で複数の特徴カテゴリの数だけ検出し、特徴カテゴリ(例えば、幾何学的特徴としては、所定方向の線分を抽出する場合にはその線分の傾きなど)に応じた受容野構造を有する。
以下、インデクスkは1以上であるとする。特徴統合層(2,k)は、所定の受容野構造(以下、受容野とは直前の層の出力素子との結合範囲を、受容野構造とはその結合荷重の分布を意味する)を有し、特徴統合層ニューロンは、特徴検出層(1,k)上にある受容野内の複数ニューロン素子出力の局所平均化(受容野内のうち局所的領域からの出力に関する重み付き平均化などを行うこと)若しくは最大出力抽出等によるサブサンプリングなどの演算による「統合」を行う。また、特徴統合層内のニューロンの各受容野は同一層内のニューロン間で共通の構造を有している。各特徴検出層(1,1)、(1,2)、…(1,N)及び各特徴統合層(2,1)、(2,2)、…(2,N)の各ニューロンは、それぞれ検出すべき特徴の種類によって決まる所定の受容野構造を持つ。
前者(各特徴検出層(1,1)、(1,2)、…(1,N))は、各特徴検出モジュールにおいて複数の異なる局所特徴であって所定の空間配置関係を持って存在するものの検出を行い、後者(各特徴統合層(2,1)、(2,2)、…(2,N))は、前段の特徴検出層からの複数特徴に関する検出結果の統合を行う。特徴統合層で行う処理であるサブサンプリングは、同一特徴カテゴリの特徴検出細胞集団からの局所的な領域(当該特徴統合層ニューロンの局所受容野)からの出力についての平均化、或いは最大値検出などを行うものである。
<特徴検出層(1,0)での処理(Gabor wavelet変換等による低次特徴抽出)>
特徴検出層(1,0)には、局所的な、ある大きさの領域で所定の空間周波数を持ち、方向成分が垂直であるようなパターンの構造(低次特徴)を検出するニューロンがあるとする。このような機能はGabor filterにより実現することができる。以下、特徴検出層(1,0)の各ニューロンが行う特徴検出フィルタ機能について説明する。
特徴検出層(1,0)では、異なるスケール選択性と異なる方向成分選択性を持ったフィルタセットで表されるGaborウエーブレット変換を行う特徴抽出処理モジュール群を含むものとし、該当するモジュール内の各ニューロン(または複数ニューロンからなる各グループ)は、所定のGaborフィルタ機能を有する。なお、Gabor wavelet変換を神経回路網で行う方法の詳細については、Daugman (1988)による文献(IEEE Trans. on Acoustics, Speech, and Signal Processing, vol.36, pp. 1169 - 1179)を参照されたい。
Gabor ウエーブレット変換用処理モジュールに属する特徴検出層(1,0)の各ニューロンは、Gaborフィルタの特性に対応する受容野構造を有する。同じスケールインデックスのGaborフィルタに属する特徴検出層ニューロンは同じサイズの受容野を有し、演算上は対応するカーネルサイズもスケールインデックスに応じた大きさを有するようにしてある。ここでは例として、最も粗いスケールから順に入力画像上の30×30、15×15、7×7のサイズとした。各ニューロンは、分布重み係数と画像データとの積和入力を行って得られるウエーブレット変換係数値の非線型squashing関数となる出力レベル(ここではパルス位相で表すが、周波数、振幅、パルス幅で表す構成でもよい)でパルス出力を行う。なお、出力レベルをパルス位相で表す場合には、基準となるタイミング信号(外部または演算処理層内部で生成される)からの時間遅れが少ないほど出力レベルが高くなるものとする。
特徴検出層(1,0)においては、既に説明したように処理モジュール追加・削除制御回路30により新規に処理モジュールが追加された場合には、後段の層((1,1)など)の処理モジュールにおいて検出される特徴を構成するような新たなカテゴリの局所特徴の検出モジュールが学習により形成される。
<特徴検出層での処理(中次、高次特徴抽出)>
後続の特徴検出層((1,1)、(1,2…)の各処理モジュール内ニューロンの受容野構造は、上記特徴検出層(1,0)に予め形成された処理モジュールとは異なり、認識対象のパターンに固有の特徴を検出する受容野構造を教師付き学習(いわゆる誤差逆伝播学習則等)により形成する。後の層ほど特徴検出を行う局所的な領域のサイズが認識対象全体のサイズに段階的に近くなり、幾何学的には中次または高次の特徴を検出する。例えば、顔の検出や認識を行う場合には中次(または高次)の特徴とは顔を構成する目、鼻、口等の図形要素のレベルでの特徴を表す。
各特徴検出層には、初期状態では2つの処理モジュールを形成しておき、各処理モジュール内の各ニューロンの受容野構造は、ランダムに与えておく。特徴検出層((1,1)、(1,2)…)の各処理モジュールでの学習は、階層レベルの低い層から高い層へ順に各層の各処理モジュールごとに行われる。一度学習が済んだ処理モジュールに属する各ニューロンの下位層(特徴統合層)との結合は、その後に行われる上位の特徴検出層に属する処理モジュールでの学習により一定範囲内での修正を受けるが、大きく変化することは無いように学習制御回路40によりシナプス結合の更新が制御される。
図3は、学習制御回路40による学習の制御処理のフローチャートである。
先ず、特徴検出層((1,1)、(1,2)、・・・)の各処理モジュール(特徴クラス)を学習制御回路40が指定し(ステップS101)、教示用データ保持メモリ20から教示用データを読み出し、入力層の各ニューロンに対してトレーニング用入力データを呈示(入力)し、ステップS101で指定した処理モジュール内の所定ニューロンにトレーニング用教師データを呈示(入力)する(ステップS102)。そして教師付き学習(誤差逆伝播学習など)を行う(ステップS103)。
ここで学習制御回路40は、学習過程をモニターし、ある程度学習が進んだところでいわゆる交差検定(Cross-validation)などによる誤差判定(ステップS104)を行い、後述の学習誤差との閾値と比較を行い(ステップS105)、同一処理モジュール内での最小誤差値が所定の閾値より高く、誤差の変化率(例えば前回の学習誤差との差分)が所定基準値より低い場合などには、処理モジュール追加・削除制御回路30に制御信号を入力し、下位の特徴検出層において処理モジュールの追加を行う(ステップS106)。処理モジュールの削除(ステップS108における処理)については後述する。
ステップS105による学習収束判定(処理モジュール内の最小誤差値が閾値以下、かつ誤差の変化率が所定基準値以下)により、誤差が閾値以下であれば、処理モジュール内で最小の誤差値を与えるニューロンの受容野構造を同一処理モジュールに属する他のニューロンに複製する(ステップS110)。これにより学習済みの処理モジュールが形成される。
<特徴統合層での処理>
特徴統合層((2,0)、(2,1)、・・・)のニューロンについて説明する。図1に示すごとく特徴検出層(例えば(1,0))から特徴統合層(例えば(2,0)層)への結合は、この特徴統合内のニューロンの受容野内にある前段の特徴検出層の同一特徴要素(タイプ)のニューロンから興奮性結合の入力を受けるように構成され、統合層のニューロンの機能は前述したごとく、各特徴カテゴリごとの局所平均化、最大値検出によるサブサンプリング等である。
前者によれば、複数のニューロンから同一種類の特徴検出を表すパルスを入力し、それらを局所的な領域(受容野)で統合して平均化するか、或いは、受容野内での最大値等の代表値を算出する等により、その特徴の位置のゆらぎ、変形に対しても確実に検出することができる。このため、特徴統合層ニューロンの受容野構造は、特徴カテゴリによらず一様(例えば、いずれも所定サイズの矩形領域であって、かつ感度または重み係数がその中で一様分布するなど)となるように構成してよい。
<学習プロセスおよび処理モジュール追加・削除プロセス>
次に、処理モジュール追加・削除制御回路30の動作を詳しく説明するために、画像中のまとまりを持った意味のある部分領域(例えば、顔画像中の目、鼻、口など)の検出を行う特徴検出層内の処理モジュールでの学習動作のプロセスについて説明する。目を検出する特徴検出処理モジュール(A)について説明する。図5(a)に示すように、予め、該当する部分領域(教示データ:目)の検出に有効と推測された局所特徴(例えば、図5(a)のB1〜B4の枠内に示すようなパターン)の検出を行う処理モジュールが図6に示すように処理モジュールA1,Fの下位にある特徴検出層と特徴統合層に存在し、その下位特徴統合層に存在する処理モジュール(B1,S、B2,S、B3,S)からの出力のみを受けて部分領域(複合局所特徴としての目)の検出を行うものとする。図6において処理モジュール(B1,S、B2,S、B3,S)は特徴検出層内に配置されている処理モジュールを表す。
ここで、局所特徴の検出用処理モジュールA1,Fの学習過程において、誤検出の発生などによりトレーニングデータセットに対する誤差量が所定の閾値以下とならず、処理モジュールA1,Fにおいて行う複合局所特徴の検出性能が不十分であると判定されたとする。このとき、処理モジュール追加・削除制御回路30は、該当する下位の特徴検出層において1つ以上特徴クラスについての処理モジュール(図6のBj,FおよびBj,Sなど)を自動的に追加する。このような処理モジュールの追加処理は、上記ステップS106において行われる。
追加された処理モジュールの各ニューロン素子は、上位の処理モジュール(A)の各ニューロン素子と後述するような結合を形成していることはいうまでもない。このような追加は、結合係数の値を0(結合のない状態)から変化させることで実現できる。同様に、結合係数の値を0とすることでモジュールを削除することができる。
一方、誤差量(または誤差値の変化率)が閾値以下となった場合、特徴統合層の処理モジュール(B1,S,B2,S,…)間での処理モジュールA1,Fにおける特徴検出性能に関する寄与度の相対評価を処理モジュール内でのシナプス荷重値の最大値などに基づいて行い、処理モジュール追加・削除制御回路30は、寄与度または寄与度の相対値(同じ階層レベルに属する全ての処理モジュールのうちの最大寄与度を1として与える)が閾値(例えば、0.1)以下である処理モジュールを削除する。このような処理モジュールの削除処理は、上記ステップS108において行われる。
寄与度の指標は、下位の処理モジュールから上位の処理モジュールへのニューロン間結合荷重の最大値、或いは、正解のパターンを呈示した時の各処理モジュール内ニューロンの活動レベルの最大値などで与えられる。
このとき、学習制御回路40は、教示データとしての部分領域(例えば、目のみを含む局所領域)のデータをネットワーク処理回路10のデータ入力層に、また対応する教師信号データを特徴検出層の処理モジュール(図6ではA1,F)に呈示(入力)し、その部分領域に主として含まれる複合局所特徴(例えば、目を表す局所特徴)の検出を行う処理モジュール(図6のA1,F)の教師付き学習を誤差逆伝播法などにより行う。具体的には、ニューロン出力の値域が0から1の範囲であるときには、正解パターン(検出されるべき局所特徴を主として含むパターン)と不正解パターン(検出されるべき局所特徴を含まないパターン)に対する教師信号をそれぞれ1,0で与えて学習を行う。
学習過程が収束(収束の判定基準は、誤差の平均値が所定の閾値以下であること、など)した後、学習制御回路40は、その学習を行ったモジュール中の最小誤差を与えるニューロンが有する受容野構造(即ち、シナプス結合荷重データ)を同じモジュール内の他のニューロンに複製することにより、結果として新たな処理モジュールでの共有受容野構造を決定する。
学習過程で用いられるシナプス結合に関する更新式は、
Figure 2005352900
で与えられる。ここにw(l) ji(n)は、n回目の荷重更新時における(l−1)層のi番目のニューロンからl層のj番目のニューロンへのシナプス結合荷重値を表し、αは学習の慣性係数、ηjiはi番目のニューロンからj番目のニューロンへの結合の上記学習係数を表す。また、δは局所勾配を表し、出力層Lにおいては、活性化関数φ(典型的には、ロジスティック関数が用いられる)のニューロン内部状態v(前段層のニューロン出力の積和演算結果に対応する)に関する微係数φ’、および出力信号と教師信号との誤差値eを用いて、
Figure 2005352900
のように表され、中間層(第l層)では
Figure 2005352900
のように与えられる。
特徴検出層の既に学習済みの下位処理モジュール(Bk,F)についてのその更に下位モジュールとの結合荷重に関する学習係数は、新規に追加された処理モジュール(Bj,F、Bj,S)と比べて相対的に低く(例えば、10分の1以下)設定される。これは、学習済みのモジュールの特性が再学習により破壊されないようにする為であり、結合荷重の更新が抑制されるようにしたものである。一方、新規に追加された処理モジュールについては、誤差信号が相対的に学習済みモジュールよりも拡大され、結合荷重の更新が促進される。
このように処理モジュール追加後に学習効率係数を学習済みモジュールでは低くし、新規追加モジュールでは相対的に高く設定した状態で教示用データを様々に与えて教師付き学習を行う。例えば、学習中の処理モジュールAが目を検出するモジュールであれば、入力データとしては目に相当するデータと、前の学習フェーズで目と誤検出された目以外の多様なパターンデータとをそれぞれ、正解データ、不正解データとして与える。
その結果、上位の処理モジュールA1,Fが教師付き学習をするときに、A1,Fに直接出力する下位処理モジュール群B,B,…(以下、特徴検出層のインデックスFおよび特徴統合層のインデクスSは省略)についてもそれぞれについての更に下位のモジュール(例えば、C1,C2,…とする)との結合荷重の更新が行われる。但し、処理モジュールAが学習するときには、その2段階以上下位の階層レベルの処理モジュールの演算素子とその更に下位の階層レベルの処理モジュール演算素子との結合は固定される(学習による変化は起きない)ものとする。
追加された各処理モジュールのニューロンの受容野サイズは処理モジュール間で一定となるように設定してもよいし、一定範囲内でばらつくように設定しても良い。追加される処理モジュールが1つであっても、受容野サイズをある範囲で変化させて学習を行い、処理モジュールAにおいて最小の誤差を与える受容野サイズを選択して用いても良い。
また、追加された処理モジュール(B)内のニューロンと処理モジュールAのニューロンとの結合と、学習済みの処理モジュール(B)内のニューロンと処理モジュールAのニューロンとの結合とが異なる空間配置関係を持つように処理モジュール追加時の結合の初期設定を行う。例えば、処理モジュールAのあるニューロン(nとする)に結合する処理モジュール(B)内の各ニューロン位置(nの受容野内での位置)は、学習済みの処理モジュールのニューロンであってnに結合するニューロンのn受容野内での位置と異なるように初期設定する。以下の説明において処理モジュールB,B,…の代表位置は、処理モジュールAの受容野内において定義され、処理モジュールB,B,…の代表点は、例えば図5において局所領域(B,B,…)の中心点である。
このようにすることにより、学習済みの処理モジュールが扱う特徴クラスと異なる新たな特徴クラスの検出が追加処理モジュールで行われるような学習が促進される。ここで、新規な特徴クラスとは、学習済みの特徴カテゴリとの特徴空間での距離が所定の基準値より大きい、或いは学習済みの特徴カテゴリとの類似度が所定の基準値より小さい、などを意味する。
処理モジュールAでの教師付き学習の結果、新規に追加された処理モジュール(B)での最小の誤差値を与えるニューロンの受容野構造は、追加された処理モジュールの代表位置が他の学習済み処理モジュールの代表位置のいずれとも異なるがゆえに、一般的には処理モジュールAで検出されるパターンを構成する特徴であって未だ学習されていない局所特徴クラスと対応する。この受容野構造は、処理モジュールAが検出する予定の複合局所特徴を構成する局所特徴として新規かつ有用な局所特徴クラスの検出に対応している。
このように複合局所特徴の構成要素となる未学習の特徴クラスの検出に関与する受容野構造が学習により自動的に形成される。この受容野構造を同じ処理モジュール内の各ニューロンの受容野(シナプス結合荷重データ)にコピーすることにより、新規に追加された処理モジュール(B)が形成される。
より具体的に説明すると、例えば、顔の中の目を検出する処理モジュールAがあるとき、「目」という特徴クラスを検出するのに適した(有効な)局所特徴として目尻と目頭に相当する「<」および「>」状のパターンを検出する処理モジュールB,Bがあったとする。なお、これらに代えて他の特徴、例えば線分(若しくは細長い領域)の端(左端、右端)の部分を局所特徴として検出するモジュールであってもよい。一般的には、これらの局所特徴だけに基づいて目を検出することは困難であり、目以外のパターンが誤検出されてしまう場合が多い。
そこで、目以外のパターンを含むトレーニングデータセットに対して誤差が閾値以下にならないような場合には、学習制御回路40からの制御信号を受けて、処理モジュール追加・削除制御回路30が新たに処理モジュールBなどを特徴検出層と特徴統合層に追加する。追加する処理モジュールは複数のクラスに対してであってもよい。処理モジュールB内の各ニューロンの受容野サイズは、既に存在する処理モジュールと同程度か、若しくは検出予定の「目」パターンより小さいものとし、必ずしも既存の処理モジュールの受容野サイズと同じである必要は無い。
その後に行う処理モジュールAでの教師付き学習(誤差逆伝播学習)では、学習済みのモジュールB,Bからの結合に関する学習係数が小さく(例えば、B,Bに関する学習時の10分の1)設定される。追加された処理モジュールBでは、既存の処理モジュールでは検出されない新たなクラスの局所特徴の検出が行われるようになる。
処理モジュールB,Bで検出される局所特徴F,Fを含み、それぞれが目のパターンと同様の空間配置関係を持っている複合局所特徴であっても目以外のパターンであることがある。そのようなパターンに対する処理モジュールAでの教師信号を不正解の教師信号(ニューロンの出力非線形関数がロジスティック関数である場合は0)として与える。また、目のパターンを主として含む局所領域に対する教師信号を正解(ニューロンの出力非線形関数がロジスティック関数である場合は1)として与えると、F,F以外の局所特徴であって、処理モジュールBのニューロンの受容野サイズに対応した大きさの特徴検出器が生成される。
ここで、処理モジュールBの各ニューロンが検出する局所特徴は、処理モジュールBが属するより前の階層レベルで検出される局所特徴(低次局所特徴と称する)を用いて構成される複合局所特徴の一つである。この場合の低次局所特徴としては、所定の方向成分とサイズを有する線分、小塊(blob)などがある。
処理モジュールBが学習により検出する新規の特徴カテゴリの候補としては、目の黒目部分若しくは、その輪郭の一部(或いは全部)などがある。処理モジュールAでの学習により、どのような種類の局所特徴が処理モジュールBで新規に検出されるかは、各ニューロンの受容野サイズと学習前の初期状態での受容野構造(シナプス荷重値の初期値分布)にも依存する。
シナプス回路としては、層間結合(特徴検出層上のニューロンと特徴統合層上のニューロン間の結合であって、各層ごとにその後続の層及び前段の層への結合が存在しうる)に関与するものである。
本実施形態においては各ニューロン素子nは、パルス信号(スパイクトレイン)を出力し、後述する様ないわゆるintegrate-and-fire型のニューロン素子を用いているが、パルス以外の信号を出力する素子を用いても良いことはいうまでもない。
<パルス信号の時間窓積分によるパターン検出の動作原理>
次に、2次元図形パターンのパルス符号化と検出方法について説明する。図4Aは、特徴統合層から特徴検出層への(例えば、図1の層(2,0)から層(1,1)への)パルス信号の伝播の様子を模式的に示す図である。
特徴統合層側の各ニューロンnは、それぞれ異なる特徴量(或いは特徴要素)に対応し、特徴検出層側のニューロンn’は、同一受容野内の各特徴を組み合わせて得られる、より高次の特徴(図形要素)の検出に関与する。
各ニューロン間結合(シナプス結合)は、入力信号に対して結合荷重値に応じた変調を行うパルス変調素子が用いられる。例えば、位相変調を行う場合にはパルスの伝播時間とニューロンnからニューロンn’へのシナプス結合(Sj,i)での時間遅れ等による固有(特徴に固有)の遅延を生じさせる。その結果としてニューロンn’に到着するパルス列Pは、特徴統合層の各ニューロンからパルス出力がなされる限り、学習によって決まるシナプス結合での遅延量により、所定の順序(及び間隔)になっている(図4Aでは、P,P,P,Pの順に到着するように示されている)。
<応用例>
図8は、以上に示した構成を基本要素とする並列パルス信号処理によるパターン認識装置、及びそのパターン認識装置を搭載した画像入力装置(例えば、カメラ、ビデオカメラ、スキャナーなど)の構成の概要を示す図である。
同図に示す撮像装置9は、撮影レンズおよびズーム撮影用駆動制御機構を含む結像光学系92、CCD又はCMOSイメージセンサー93、撮像パラメータの計測部94、映像信号処理回路95、記憶部96、撮像動作の制御、撮像条件の制御などの制御用信号を発生する制御信号発生部97、EVFなどファインダーを兼ねた表示ディスプレイ98、ストロボ発光部99、記録媒体910、更に被写体認識部911(上述した階層構造を持った並列パルス信号処理回路からなるパターン認識装置)などを具備する。
この撮像装置9は、例えば撮影された映像中から予め登録された人物の顔画像の検出(存在位置、サイズの検出)を被写体認識部911により行う。その人物の位置、サイズ情報は制御信号発生部97に入力されると、同制御信号発生部97は、撮像パラメータ計測部94からの出力に基づき、その人物に対するピント制御、露出条件制御、ホワイトバランス制御などを最適に行う制御信号を発生する。
このようなパターン検出(認識)装置を、このように撮像装置に用いた結果、この被写体を確実に検出(認識)する機能を低消費電力かつ高速(リアルタイム)に実現して、人物等の検出とそれに基づく撮影の最適制御(AF、AEなど)を行うことができる。
従って、以上の説明により、本実施形態は、ノイズや認識対象パターンの変動に対してロバストであって、かつ汎化性能と新規のカテゴリの学習機能を実現することができる。
また、認識に有効な少ない数の局所特徴クラスを比較的単純な特徴クラスからある程度複雑な特徴クラスまでを所定の特徴空間内での重複を排除して効率的に学習することができ、これを用いて任意のパターン認識を効率的に行うことができる、
特に、神経回路網や階層的並列処理において学習済みの有効な特徴クラスの検出素子と一つ以上の未学習(学習予定)の特徴検出素子を用い、両者の出力に基づいて所定のパターンを認識・検出するのに有効な新規の特徴クラスを検出するための演算素子間の結線構造(受容野構造)を学習により効率的に形成させることができる。
[第2の実施形態]
本実施形態では、図9に示すように特徴統合層内に新たに追加された処理モジュールと既に存在する処理モジュールとの間にニューロン間の層内結合を導入する。図9は、本実施形態に係るネットワーク処理回路の構成を説明する為の模式図である。
第1の実施形態と同様に教師付き学習が収束した後、ニューロン出力の誤差平均値が閾値より高い場合に、処理モジュールの追加後に行われるが、その後更に後で説明するような自己組織化学習が学習制御回路40により行われる。この自己組織化学習は、学習済みの処理モジュールが検出する特徴クラスとは独立して存在する特徴クラスの検出を促進するためのものである。
図10は、学習制御回路40による学習の制御処理のフローチャートである。
先ず、第1の実施形態と同様に学習制御回路40は、特徴検出層((1,1)、(1,2)、・・・)の各処理モジュール(特徴クラス)を指定し(ステップS201)、教示用データ保持メモリ20から教示用データを読み出し、入力層の各ニューロンに対してトレーニング用入力データを呈示(入力)し、ステップS101で指定した処理モジュール内の所定ニューロンにトレーニング用教師データを呈示(入力)する(ステップS202)。そして教師付き学習(誤差逆伝播学習など)を行う(ステップS103)。
ここで学習制御回路40は第1の実施形態と同様にして、学習過程をモニターし、ある程度学習が進んだところでいわゆる交差検定(Cross-validation)などによる誤差判定(ステップS204)を行い、後述の学習誤差との閾値と比較を行い(ステップS205)、同一処理モジュール内での最小誤差値が所定の閾値より高く、誤差の変化率(例えば前回の学習誤差との差分)が所定基準値より低い場合などには、処理モジュール追加・削除制御回路30に制御信号を入力し、下位の特徴検出層、特徴統合層において処理モジュールの追加を行う(ステップS206)。このとき、追加された処理モジュールの各演算素子から同一階層における他の学習済み処理モジュールの演算素子に対しての結合(層内結合)を初期設定する。
この初期設定された結合の受容野サイズは特徴クラスの複雑さに応じて決まる一定値(例えば、顔検出を行う処理モジュールの受容野サイズを1としたときの目検出処理モジュール、目尻・目頭検出処理モジュールの各受容野サイズは、顔サイズに対する目サイズ、口サイズに関するある集団の代表値として与えられる)であり、結合荷重値は、−1から1の範囲でランダムに与えられる。処理モジュールの追加後に行われる学習は、本実施形態に特有の自己組織化学習(ステップS207)過程である。ステップS207における自己組織化処理の詳細については後述する。
第1の実施形態と同様の収束判定及び誤差判定を行い(ステップS208)、誤差が閾値以下であれば、次の特徴クラスを指定し、同様の学習過程(即ち、ステップS201〜ステップS208までの処理)を実行し、特徴検出層内の全ての特徴クラスについて同様の学習過程を繰り返す。
次にステップS207における自己組織化学習の詳細について説明する。
自己組織化学習では、ステップS201で指定された処理モジュールが検出する特徴カテゴリ(例えば、目)を主として含む画像データ(例えば、特徴カテゴリとしての目の画像データだけを含み、背景は無地の画像データ)をデータ入力層に呈示(入力)して行う。
本実施形態では、各ニューロンは線形素子(例えば、前段の層からの信号の線形和を出力する素子)とし、層内結合の学習にいわゆる反ヘッブ則に基づく自己組織化を行い、層間結合についてはいわゆるHebb則に基づく自己組織化を行う。具体的には層間結合の荷重ベクトルをw、層内結合の荷重ベクトルをAとおくと、第k層のj番目のニューロンにおけるそれぞれの荷重ベクトルの更新式は、
Figure 2005352900
で表される。
ここに、y =[y 、y …y j−1]、y=[y 、y …y N(k)]、kは層番号のインデクス、N(k)はk番目の層の総ニューロン数を表す。
処理モジュールが追加された層より1階層上の特徴検出層のニューロンが検出する予定の特徴カテゴリと同程度の大きさの特徴を含む入力データ(例えば、図5(a)〜(d)に示すような入力データ)を入力層に所定の教示データを呈示して行う。自己組織化の教示用データとしては、例えば、目の検出を行う特徴検出層の前段の特徴検出層および特徴統合層にそれぞれ処理モジュールが追加された場合には、目だけの画像データを教示用データとして与える。同様に、顔を検出する特徴検出層の前段の特徴検出層および特徴統合層にそれぞれ処理モジュールが追加された場合には、顔だけの画像データを教示用データとして入力層に与える。
なお、第1の実施形態と同様に処理モジュールは一つの階層につき一度に複数追加してもよい。追加された処理モジュールの各演算素子(ニューロン)の受容野構造は、サイズが処理モジュール内では一定で結合荷重がランダムに初期設定されている。受容野サイズは、検出予定の特徴クラス(特徴の複雑度)に応じて事前に決定されるが、複数の処理モジュールが追加された場合には、モジュール間で受容野サイズがある程度異なるように設定しても良い。
以上説明した自己組織化は、具体的には追加モジュールの出力と学習済みモジュール出力との間の相関を小さくするような競合学習過程であるが、他の自己組織化の方法として上記処理モジュール間の相互情報量を最小(極小)にするような学習を行っても良い。なお、自己組織化の学習プロセスは、モジュール間の相関または相互情報量が閾値以下となったときに停止する。
なお、上記更新式で与えられる自己組織化が収束すると層内結合Aはゼロベクトルに収束し、層間結合wは前段の階層からの局所領域(追加された処理モジュール内ニューロンの受容野)からの出力データに関するk番目に大きい固有値に対応する固有ベクトルに収束し、その処理モジュールのニューロン出力の分散は、k番目に大きい固有値になることが分かっている。また、固有ベクトルは互いに直交する。
上述したような自己組織化学習により追加された処理モジュールは、特徴空間において他の学習済み特徴クラスと互いに直交する特徴クラス、即ち、同じ階層での他の学習済み処理モジュールのいずれによっても検出されないような新規な特徴クラスの検出を行うようになる。
本実施形態により形成される各処理モジュールで検出される特徴は、入力層のデータを直接入力する下位の階層レベルでは、入力データセットの共分散行列に関する固有ベクトルで張られる特徴空間、更に上位の中間階層では、前段の階層レベルで抽出される特徴データの共分散行列に関する固有ベクトルで張られる特徴空間の各軸への射影成分であると解釈することができる。
一方、追加された処理モジュールおよび学習済み処理モジュール(いずれも特徴統合層)が結合する上位層の特徴検出層処理モジュールでは、追加された処理モジュールとの層間結合の学習は、第1の実施形態に示したような通常の誤差逆伝播学習などの教師付き学習として行われるが、追加された処理モジュールと同一階層の各処理モジュールとそれぞれの下位階層の処理モジュールとの結合は固定して行われる。
本実施形態に示す方法により、新規なカテゴリの物体認識を行うのに有用な構成要素となる特徴(局所的に検出される特徴)クラスを自動的にかつ効率的に学習することができる。
[第3の実施形態]
第1、第2の実施形態と同様にConvolutionalネットワーク構造においてアルファベット的な図形要素としての局所特徴を様々な教示サンプル画像から自動的に検出する神経回路モジュールを形成する他の実施形態を説明する。ネットワーク構造としては、他の階層的並列処理アーキテクチャを用いても良い。
本実施形態では、独立成分分析によって得られる基底画像中の顕著領域に対応する画像データに処理モジュールが検出すべき特徴が主として含まれると解する。本実施形態でのパターン認識装置は、図13に示すように、データ入力装置3100、ネットワーク処理回路310、独立成分分析部350、画像データベース370、教示用データ保持メモリ320、処理モジュール追加・削除制御回路330、学習制御回路340、表示装置3200から構成される。
以下、図11を参照して本実施形態に係るパターン認識装置が行う学習処理について詳細に説明する。ここでは、先ず複数の認識対象の画像データセット(例えば、異なる人物の顔画像データセットであって向きとサイズを一定にしたもの)を画像データベース370から入力し、そのデータセットに対して独立成分分析部350が独立成分分析(Independent Component Analysis)を行い、n個の独立基底画像データセットを求める(ステップS301)。
図12(a)〜(f)に異なる人物の顔画像データセットについて独立成分分析を行った結果の基底画像の例を模式的に示す。また、図14(a)〜(d)に異なる目画像データセットについて独立成分分析を行った結果得られる基底画像の例を模式的に示す。
Convolutionalネットワーク構造の途中の階層レベルで検出すべき特徴クラス(例えば、目など)が分かっている場合には、その中間レベルの特徴クラスに対応する画像データセットを呈示して独立成分分析を行って得られる基底画像(例えば、図14(a)〜(d)など)を求めておいても良い。
独立基底数nは初期設定において階層レベル1では、例えば、図12(d)に示す如く定められているものとする。次にそれぞれの基底画像について顕著な局所領域(以下、顕著領域と称する)を求める(ステップS302)。顕著領域は、例えば空間微分値の絶対値が所定閾値以上の領域を包含する連結領域である。なお、図12(f)に示すように一つの独立基底画像中に複数の顕著領域が存在しても良く、この場合には階層レベルの高い特徴検出層での学習に用いる。また、連結領域の形状としては矩形や楕円など予め決められた形状の領域を用いても良い。
次にこの顕著領域のサイズと数をそれぞれの基底画像に対して求め(ステップS303)、基底画像ごとに階層レベルとその階層内での処理モジュールとの対応付けを設定する(ステップS304)。例えば、顕著領域の数が1つであれば、階層レベルは1とし、顕著領域の数がL個であれば第L階層レベルとする。なお、それぞれの階層レベルに特徴検出層と特徴統合層が一層ずつ存在するものとする。全体として初期設定では、算出済みの独立基底画像データ数の一部(m個:m<n)だけ処理モジュールを用意する。
その後、ネットワーク構造(階層レベル数、各階層の処理モジュール数、各処理モジュールの結合荷重パターンなど)の初期設定を行い(ステップS305)、最も下位の階層から順に階層レベルと処理モジュールの指定を行って(ステップS306)、教示用データの呈示を入力層とこの処理モジュールに対して行い(ステップS307)、処理モジュールごとに学習(基本的には教師付き学習であるが、第2の実施形態のような自己組織化学習でもよい)を行う(ステップS308)。
具体的には、それぞれの顕著領域に対応する入力データ中の局所領域の画像データを教示用入力データとして教示用データ保持メモリ320に保持しておき、学習時に、各教示用入力データを入力層に呈示し(ステップS307)、独立基底画像中の連結領域数に応じた層番号の特徴検出層の各処理モジュールで第1の実施形態に示すような教師付き学習を行う(ステップS308)。
上記実施形態と同様にして学習の収束を判定した後、誤差値を評価して、その値と予め設定した基準値とを比較し(ステップS309)、誤差値が基準値以下であれば、次に判定ステップ(ステップS311)において全階層、全処理モジュールにわたって学習が行われたと判定されれば、一連の学習処理を終了する。
ステップS309における判定処理で誤差値が基準値を上回るときには、処理モジュールより下位階層において初期設定時の処理モジュール全てが学習済みであれば、処理モジュール追加・削除回路30が処理モジュールを新たに追加する(ステップS310)。追加された処理モジュールの各演算素子と下位の階層の演算素子との結合の初期設定は、第1の実施形態と同様である。
[第4の実施形態]
上記実施形態では、パターン認識装置を専用ハードウェアでもって実現させていたが、このパターン認識装置が行う上述の処理をプログラムの形態でもって実装し、これをPC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータのメモリにインストールさせ、これをこのコンピュータのCPUが実行することにより、このコンピュータに上記実施形態で説明したパターン認識装置が行う処理を実行させるようにしても良い。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャート(機能構成)に対応するプログラムコードが格納されることになる。
本発明の第1の実施形態におけるパターン認識処理を行う装置(パターン認識装置)の機能構成を示す図である。 本発明の第1の実施形態で用いるネットワーク処理回路10の機能構成を示す図である。 学習制御回路40による学習の制御処理のフローチャートである。 特徴統合層から特徴検出層への(例えば、図1の層(2,0)から層(1,1)への)パルス信号の伝播の様子を模式的に示す図である。 ニューロンnの結合先である各ニューロンn’へのシナプス結合強度(位相遅延等に関する変調の大きさを意味する)を与える各小回路がマトリクス的に配置することにより形成されるシナプス回路の構成を示す図である。 目の局所特徴を示す図である。 本発明の第1の実施形態に係るネットワーク処理回路の構成を説明する為の模式図である。 複数のパルスを処理を説明する図である。 本発明の第1の実施形態に係る並列パルス信号処理によるパターン認識装置、及びそのパターン認識装置を搭載した画像入力装置(例えば、カメラ、ビデオカメラ、スキャナーなど)の構成の概要を示す図である。 本発明の第2の実施形態に係るネットワーク処理回路の構成を説明する為の模式図である。 学習制御回路40による学習の制御処理のフローチャートである。 本発明の第3の実施形態に係るパターン認識装置が行う学習処理のフローチャートである。 異なる人物の顔画像データセットについて独立成分分析を行った結果の基底画像の例を模式的に示す図である 本発明の第3の実施形態におけるパターン認識処理を行う装置(パターン認識装置)の機能構成を示す図である。 異なる目画像データセットについて独立成分分析を行った結果得られる基底画像の例を模式的に示す図である。

Claims (29)

  1. データ入力層と、複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、を有する並列階層処理を行う情報処理装置であって、
    所定の少なくとも一つの階層レベルの前記演算処理層において所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
    未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習処理モジュールとを備え、
    所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする情報処理装置。
  2. データ入力層と、検出すべき特徴クラスに対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、学習制御回路と、処理モジュール追加・削除回路と、を有する情報処理装置であって、
    前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすか否かを判定する判定手段と、
    前記判定手段が前記所定の条件を満たすと判定した場合、前記階層レベルより下位の層において前記処理モジュール追加・削除回路に、少なくとも一つの処理モジュールを追加させるよう制御する制御手段と
    を備えることを特徴とする情報処理装置。
  3. 前記学習済み処理モジュールを構成するニューロン群の受容野構造は、前記新規な特徴クラスの学習において所定の範囲で可変とすることを特徴とする請求項1に記載の情報処理装置。
  4. 前記新規な特徴クラスの学習は、複数の階層レベルで行うことを特徴とする請求項1に記載の情報処理装置。
  5. 前記新規な特徴クラスの検出に必要な結合パターンの学習は、前記未学習処理モジュールが存在する階層より上位の所定の階層レベルの処理モジュールに対して行う教師付き学習であり、前記演算処理層間における前記結合素子の特性を決定することを特徴とする請求項1に記載の情報処理装置。
  6. 前記学習制御回路は前記所定の学習段階において、所定の階層において前記追加された処理モジュール内の演算素子と当該階層より下位の階層の所定処理モジュール内にある演算素子に対する局所的な初期結合を設定し、前記初期結合は、前記所定の階層の学習済み処理モジュール内演算素子が結合する前記下位の階層の所定処理モジュール内演算素子の空間配置のいずれとも異なる空間配置を有する前記下位階層の演算素子と形成されることを特徴とする請求項2に記載の情報処理装置。
  7. 前記新規な特徴クラスの検出に必要な結合パターンの学習は、前記追加された処理モジュールの演算素子出力と同一階層レベルの他の学習済み処理モジュールの演算素子出力との相関が減少するような自己組織化学習であることを特徴とする請求項5に記載の情報処理装置。
  8. 前記制御手段は、前記処理モジュール追加・削除回路に、複数の処理モジュールを同時に追加させる処理を行い、前記追加された処理モジュールの演算素子の受容野サイズは前記追加された処理モジュール間で異なることを特徴とする請求項2に記載の情報処理装置。
  9. 前記自己組織化学習は反ヘッブ則に基づく学習であることを特徴とする請求項7に記載の情報処理装置。
  10. 前記演算処理層のうち少なくとも一つの階層レベルは追加された処理モジュールと学習済み処理モジュール間での層内結合を有し、当該追加された処理モジュールが属する階層で行う前記自己組織化学習は、当該階層とその下位の階層間での層間結合および前記層内結合について行うことを特徴とする請求項7に記載の情報処理装置。
  11. 前記新規な特徴クラスの検出に必要な結合パターンの学習は、当該学習を行う処理モジュールが結合する上位の階層の所定の処理モジュールにおける教師付き学習が収束した後に行われる自己組織化学習であることを特徴とする請求項5に記載の情報処理装置。
  12. 前記演算処理層は、畳み込み神経回路網であることを特徴とする請求項1に記載の情報処理装置。
  13. 前記新規な特徴クラスの検出に必要な結合パターンの学習は、前記追加された処理モジュールの演算素子出力と同一階層レベルの他の学習済み処理モジュールの演算素子出力とに関する相互情報量が減少するような自己組織化学習であることを特徴とする請求項5に記載の情報処理装置。
  14. 前記処理モジュール追加・削除回路は、前記演算処理層内の所定階層レベルでの各処理モジュールの相対寄与度評価を行い、前記相対寄与度が所定の閾値より小さい処理モジュールを削除することを特徴とする請求項2に記載の情報処理装置。
  15. 所定の入力データを入力する入力層と、
    所定のデータセットに関して独立成分分析を行う独立成分分析手段と、
    学習制御手段と、
    複数の検出すべき特徴クラスそれぞれに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    前記独立成分分析の結果得られる所定の基底データセットと前記入力データとから、所定の前記処理モジュールが学習すべき所定の特徴クラスを含む学習用入力データを設定し、所定のメモリに格納する学習用データ設定手段と、
    を有する情報処理装置であって、
    所定の少なくとも一つの階層レベルの前記演算処理層は、
    所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
    未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
    を備え、
    前記学習制御手段は、所定の前記学習用入力データを前記演算処理層の所定の層に呈示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする情報処理装置。
  16. 前記学習用データ設定手段は、前記基底データセットの顕著領域を抽出し、当該顕著領域に対応する前記入力データ上のデータを前記学習用入力データとして設定することを特徴とする請求項15に記載の情報処理装置。
  17. データ入力層と、
    複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    学習制御手段と、
    前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを備え、
    所定の少なくとも一つの階層レベルの前記演算処理層は、所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
    未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
    を備え、
    前記学習制御手段は、所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とするパターン認識装置。
  18. データ入力層と、
    検出すべき特徴クラスに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    学習制御回路と、
    処理モジュール追加・削除回路と、
    前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを有し、
    前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすときに、前記階層レベルより下位の層において前記処理モジュール追加・削除回路は、少なくとも一つの処理モジュールを追加することを特徴とするパターン認識装置。
  19. 請求項1又は2に記載の情報処理装置を搭載することを特徴とする画像入力装置。
  20. 請求項17又は18に記載のパターン認識装置を搭載することを特徴とする画像入力装置。
  21. データ入力層と、複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、所定の少なくとも一つの階層レベルの前記演算処理層において所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習処理モジュールとを備える情報処理装置が行う情報処理方法であって、
    所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする情報処理方法。
  22. データ入力層と、検出すべき特徴クラスに対応する複数の処理モジュールを備えかつ少なくとも一つの階層レベルを有する演算処理層と、学習制御回路と、処理モジュール追加・削除回路と、を有する情報処理装置が行う情報処理方法であって、
    前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすか否かを判定する判定工程と、
    前記判定工程で前記所定の条件を満たすと判定した場合、前記階層レベルより下位の層において前記処理モジュール追加・削除回路に、少なくとも一つの処理モジュールを追加させるよう制御する制御工程と
    を備えることを特徴とする情報処理方法。
  23. 所定の入力データを入力する入力層と、
    所定のデータセットに関して独立成分分析を行う独立成分分析手段と、
    学習制御手段と、
    複数の検出すべき特徴クラスそれぞれに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    前記独立成分分析の結果得られる所定の基底データセットと前記入力データとから、所定の前記処理モジュールが学習すべき所定の特徴クラスを含む学習用入力データを設定し、所定のメモリに格納する学習用データ設定手段と、
    を有し、所定の少なくとも一つの階層レベルの前記演算処理層は、
    所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
    未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールとを備える情報処理装置が行う情報処理方法であって、
    前記学習制御工程では、所定の前記学習用入力データを前記演算処理層の所定の層に呈示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とする情報処理方法。
  24. データ入力層と、
    複数の検出すべき特徴クラスにそれぞれ対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    学習制御手段と、
    前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを備え、
    所定の少なくとも一つの階層レベルの前記演算処理層は、所定の特徴クラスを検出するのに用いられる受容野構造を持つ複数のニューロンからなる少なくとも一つの学習済み処理モジュールと、
    未学習の特徴クラスを学習すべき受容野構造が不定な複数ニューロンからなる少なくとも一つの未学習の処理モジュールと
    を備えるパターン認識装置が行うパターン認識方法であって、
    前記学習制御工程では、所定のパターンを前記データ入力層に提示することにより、前記未学習処理モジュールにおいて新規な特徴クラスの検出に必要な学習を行うことを特徴とするパターン認識方法。
  25. データ入力層と、
    検出すべき特徴クラスに対応する複数の処理モジュールを備え、かつ少なくとも一つの階層レベルを有する演算処理層と、
    学習制御回路と、
    処理モジュール追加・削除回路と、
    前記演算処理層からの出力に基づき、所定のパターン認識結果を出力する認識結果出力手段とを有するパターン認識装置が行うパターン認識方法であって、
    前記学習制御回路により実行される所定の学習段階において前記演算処理層内の所定階層レベルでの演算素子出力の誤差信号が所定の条件を満たすときに、前記階層レベルより下位の層において前記処理モジュール追加・削除回路は、少なくとも一つの処理モジュールを追加することを特徴とするパターン認識方法。
  26. 請求項21乃至23に記載の情報処理方法をコンピュータに実行させることを特徴とするプログラム。
  27. 請求項24又は25に記載のパターン認識方法をコンピュータに実行させることを特徴とするプログラム。
  28. データ入力層とデータ出力層との間に、前段の層からの出力から検出すべきそれぞれの特徴量を検出するための複数の処理モジュールを備える検出層、当該検出層からの出力を統合して出力する統合層、の各層を交互に配置することにより構成される階層型ニューラルネットワークにおいて、所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値を所望の出力値とすべく、層間の結合定数を修正する処理を行う情報処理装置であって、
    所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値と、所望の出力値との誤差を求める誤差計算手段と、
    前記データ入力層から、前記所定の処理モジュールに出力値を出力する層までの間に配置された各層の内1つ以上の層内に、前記誤差に応じて処理モジュールを新たに追加する追加手段と、
    前記追加手段による追加処理後、前記誤差計算手段による誤差に基づいて、前記所定の検出層から前記データ入力層に向けて所定層数分の層の間の結合定数を修正する修正手段と
    を備えることを特徴とする情報処理装置。
  29. データ入力層とデータ出力層との間に、前段の層からの出力から検出すべきそれぞれの特徴量を検出するための複数の処理モジュールを備える検出層、当該検出層からの出力を統合して出力する統合層、の各層を交互に配置することにより構成される階層型ニューラルネットワークにおいて、所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値を所望の出力値とすべく、層間の結合定数を修正する処理を行う情報処理方法であって、
    所定の検出層における所定の処理モジュールを構成する各ニューロンの出力値と、所望の出力値との誤差を求める誤差計算工程と、
    前記データ入力層から、前記所定の処理モジュールに出力値を出力する層までの間に配置された各層の内1つ以上の層内に、前記誤差に応じて処理モジュールを新たに追加する追加工程と、
    前記追加工程による追加処理後、前記誤差計算工程による誤差に基づいて、前記所定の検出層から前記データ入力層に向けて所定層数分の層の間の結合定数を修正する修正工程と
    を備えることを特徴とする情報処理方法。
JP2004174601A 2004-06-11 2004-06-11 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 Pending JP2005352900A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004174601A JP2005352900A (ja) 2004-06-11 2004-06-11 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US11/149,698 US7676441B2 (en) 2004-06-11 2005-06-10 Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
US12/696,993 US8015130B2 (en) 2004-06-11 2010-01-29 Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004174601A JP2005352900A (ja) 2004-06-11 2004-06-11 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法

Publications (2)

Publication Number Publication Date
JP2005352900A true JP2005352900A (ja) 2005-12-22
JP2005352900A5 JP2005352900A5 (ja) 2007-08-02

Family

ID=35481812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004174601A Pending JP2005352900A (ja) 2004-06-11 2004-06-11 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法

Country Status (2)

Country Link
US (2) US7676441B2 (ja)
JP (1) JP2005352900A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013720A (ja) * 2009-06-30 2011-01-20 Jfe Steel Corp カテゴリ判定ルールの作成方法、装置およびコンピュータプログラム
JP2014095678A (ja) * 2012-11-12 2014-05-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理プログラム
JP2018010626A (ja) * 2016-06-30 2018-01-18 キヤノン株式会社 情報処理装置、情報処理方法
CN108241888A (zh) * 2016-12-27 2018-07-03 电装 It 研究所 信息估计装置和信息估计方法
JP2018532441A (ja) * 2015-08-04 2018-11-08 シーメンス アクティエンゲゼルシャフト 脳腫瘍を分類するための視覚表現学習

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
US8229209B2 (en) * 2008-12-26 2012-07-24 Five Apes, Inc. Neural network based pattern recognizer
US8160354B2 (en) * 2008-12-26 2012-04-17 Five Apes, Inc. Multi-stage image pattern recognizer
US8290250B2 (en) 2008-12-26 2012-10-16 Five Apes, Inc. Method and apparatus for creating a pattern recognizer
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US8400504B2 (en) 2010-04-05 2013-03-19 King Fahd University Of Petroleum And Minerals Contamination monitoring of high voltage insulators
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9193075B1 (en) 2010-08-26 2015-11-24 Brain Corporation Apparatus and methods for object detection via optical flow cancellation
US8942466B2 (en) 2010-08-26 2015-01-27 Brain Corporation Sensory input processing apparatus and methods
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP5746550B2 (ja) * 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9070039B2 (en) 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
US8990133B1 (en) 2012-12-20 2015-03-24 Brain Corporation Apparatus and methods for state-dependent learning in spiking neuron networks
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US8577131B1 (en) * 2011-07-12 2013-11-05 Google Inc. Systems and methods for visual object matching
US9412064B2 (en) 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
US8725662B2 (en) 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US9460387B2 (en) 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US8874498B2 (en) 2011-09-16 2014-10-28 International Business Machines Corporation Unsupervised, supervised, and reinforced learning via spiking computation
US8738554B2 (en) 2011-09-16 2014-05-27 International Business Machines Corporation Event-driven universal neural network circuit
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
US9156165B2 (en) 2011-09-21 2015-10-13 Brain Corporation Adaptive critic apparatus and methods
US8712939B2 (en) 2011-09-21 2014-04-29 Brain Corporation Tag-based apparatus and methods for neural networks
US9213937B2 (en) 2011-09-21 2015-12-15 Brain Corporation Apparatus and methods for gating analog and spiking signals in artificial neural networks
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US9104186B2 (en) 2012-06-04 2015-08-11 Brain Corporation Stochastic apparatus and methods for implementing generalized learning rules
US9146546B2 (en) 2012-06-04 2015-09-29 Brain Corporation Systems and apparatus for implementing task-specific learning using spiking neurons
US8626684B2 (en) 2011-12-14 2014-01-07 International Business Machines Corporation Multi-modal neural network for universal, online learning
US8799199B2 (en) 2011-12-14 2014-08-05 International Business Machines Corporation Universal, online learning in multi-modal perception-action semilattices
EP2825974A4 (en) * 2012-03-15 2017-04-05 Qualcomm Technologies, Inc. Tag-based apparatus and methods for neural networks
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9111215B2 (en) 2012-07-03 2015-08-18 Brain Corporation Conditional plasticity spiking neuron network apparatus and methods
US8977582B2 (en) 2012-07-12 2015-03-10 Brain Corporation Spiking neuron network sensory processing apparatus and methods
US9256215B2 (en) 2012-07-27 2016-02-09 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
US9440352B2 (en) 2012-08-31 2016-09-13 Qualcomm Technologies Inc. Apparatus and methods for robotic learning
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
US9189730B1 (en) 2012-09-20 2015-11-17 Brain Corporation Modulated stochasticity spiking neuron network controller apparatus and methods
US9082079B1 (en) 2012-10-22 2015-07-14 Brain Corporation Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9904889B2 (en) 2012-12-05 2018-02-27 Applied Brain Research Inc. Methods and systems for artificial cognition
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9195934B1 (en) 2013-01-31 2015-11-24 Brain Corporation Spiking neuron classifier apparatus and methods using conditionally independent subsets
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US8996177B2 (en) 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
CN103324879B (zh) * 2013-07-05 2016-08-10 公安部第三研究所 移动设备基于人脸识别和智能卡的身份验证***及方法
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) * 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9364950B2 (en) 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9630317B2 (en) 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US9613308B2 (en) 2014-04-03 2017-04-04 Brain Corporation Spoofing remote control apparatus and methods
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
US9860077B2 (en) 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9579790B2 (en) 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9870617B2 (en) 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US10360498B2 (en) * 2014-12-18 2019-07-23 Facebook, Inc. Unsupervised training sets for content classification
MX2017009879A (es) 2015-01-28 2018-05-28 Google Llc Capas de normalizacion por lotes.
GB2543429B (en) 2015-02-19 2017-09-27 Magic Pony Tech Ltd Machine learning for visual processing
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
EP3065086A1 (en) * 2015-03-02 2016-09-07 Medizinische Universität Wien Computerized device and method for processing image data
GB201603144D0 (en) 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
WO2016156864A1 (en) * 2015-03-31 2016-10-06 Magic Pony Technology Limited Training end-to-end video processes
GB201604672D0 (en) 2016-03-18 2016-05-04 Magic Pony Technology Ltd Generative methods of super resolution
CN104766062A (zh) * 2015-04-07 2015-07-08 广西大学 基于轻量级智能终端的人脸识别***及注册、识别方法
EP3292536B1 (en) 2015-05-05 2024-04-03 RetInSight GmbH Computerized device and method for processing image data
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US10068171B2 (en) * 2015-11-12 2018-09-04 Conduent Business Services, Llc Multi-layer fusion in a convolutional neural network for image classification
EP3441912A4 (en) * 2016-04-06 2019-02-13 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROVIDING METHOD
WO2017178808A1 (en) 2016-04-12 2017-10-19 Magic Pony Technology Limited Visual data processing using energy networks
US10295972B2 (en) 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises
GB201607994D0 (en) 2016-05-06 2016-06-22 Magic Pony Technology Ltd Encoder pre-analyser
US10475214B2 (en) * 2017-04-05 2019-11-12 General Electric Company Tomographic reconstruction based on deep learning
CN107087161B (zh) * 2017-04-28 2019-05-03 南京邮电大学 视频业务中基于多层神经网络的用户体验质量的预测方法
US10140421B1 (en) 2017-05-25 2018-11-27 Enlitic, Inc. Medical scan annotator system
CN111602149B (zh) * 2018-01-30 2024-04-02 D5Ai有限责任公司 自组织偏序网络
US10902302B2 (en) 2018-04-23 2021-01-26 International Business Machines Corporation Stacked neural network framework in the internet of things
CN108803506A (zh) * 2018-05-22 2018-11-13 广东美的智能机器人有限公司 生产线工件识别方法、服务器及终端
US11011257B2 (en) 2018-11-21 2021-05-18 Enlitic, Inc. Multi-label heat map display system
US11457871B2 (en) 2018-11-21 2022-10-04 Enlitic, Inc. Medical scan artifact detection system and methods for use therewith
US11145059B2 (en) 2018-11-21 2021-10-12 Enlitic, Inc. Medical scan viewing system with enhanced training and methods for use therewith
US11282198B2 (en) 2018-11-21 2022-03-22 Enlitic, Inc. Heat map generating system and methods for use therewith
CN110084836B (zh) * 2019-04-26 2022-03-04 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
US11481635B2 (en) * 2019-05-01 2022-10-25 Massachusetts Institute Of Technology Methods and apparatus for reducing leakage in distributed deep learning
US11055568B2 (en) * 2019-07-10 2021-07-06 Vmware, Inc. Method and system that measure application response time
US11462315B2 (en) 2019-11-26 2022-10-04 Enlitic, Inc. Medical scan co-registration and methods for use therewith
US11669678B2 (en) 2021-02-11 2023-06-06 Enlitic, Inc. System with report analysis and methods for use therewith
CN112580615B (zh) * 2021-02-26 2021-06-18 北京远鉴信息技术有限公司 一种活体的认证方法、认证装置及电子设备
JP2022135392A (ja) * 2021-03-05 2022-09-15 コニカミノルタ株式会社 医用情報管理装置、医用情報管理方法および医用情報管理プログラム
US20220303159A1 (en) * 2021-03-18 2022-09-22 San Diego State University (SDSU) Foundation, dba San Diego State University Research Foundation Systems and methods for optimization and estimation of nonlinear mimo systems with deep neural networks

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03288258A (ja) * 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
JPH05197821A (ja) * 1991-11-11 1993-08-06 Omron Corp 階層型ニューラルネットの最適化方法及び装置
JPH05257917A (ja) * 1992-01-13 1993-10-08 Nec Corp 神経回路網及びそのパターン認識装置
JPH0764943A (ja) * 1993-08-23 1995-03-10 Advantest Corp 階層型ニューラルネットワークの学習方法
JPH0883261A (ja) * 1994-09-13 1996-03-26 Toshiba Corp ニューロ演算装置
JPH08115386A (ja) * 1994-10-19 1996-05-07 Hitachi Ltd パターン認識装置
JPH08166934A (ja) * 1994-12-13 1996-06-25 Hitachi Ltd ニューラルネットワークを用いた関数生成装置
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2002324226A (ja) * 2001-04-25 2002-11-08 Fuji Electric Co Ltd ニューロシステム及びその構築方法
JP2003296737A (ja) * 2002-03-15 2003-10-17 Microsoft Corp パターン認識を容易にするシステムおよび方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5333239A (en) * 1988-09-12 1994-07-26 Fujitsu Limited Learning process system for use with a neural network structure data processing apparatus
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
JP2780454B2 (ja) 1990-07-26 1998-07-30 日本電気株式会社 追記学習型パターン認識装置
US5226092A (en) * 1991-06-28 1993-07-06 Digital Equipment Corporation Method and apparatus for learning in a neural network
US5293456A (en) * 1991-06-28 1994-03-08 E. I. Du Pont De Nemours And Company Object recognition system employing a sparse comparison neural network
WO1993003443A1 (en) * 1991-08-05 1993-02-18 Kawasaki Steel Corporation Signal processor and learning method thereof
FR2681709B1 (fr) * 1991-09-20 1993-11-05 Thomson Csf Procede de connexion interne pour reseaux de neurones.
US6894639B1 (en) * 1991-12-18 2005-05-17 Raytheon Company Generalized hebbian learning for principal component analysis and automatic target recognition, systems and method
JPH05274455A (ja) 1992-03-27 1993-10-22 Toshiba Corp ニューラルネットワーク装置
JP2779119B2 (ja) 1992-10-06 1998-07-23 松下電器産業株式会社 学習認識装置
JPH0962648A (ja) 1995-08-22 1997-03-07 Mitsubishi Electric Corp パターン認識装置
JP3303253B2 (ja) 1995-11-14 2002-07-15 三井造船株式会社 パターンマッチング方法および装置
US6038337A (en) * 1996-03-29 2000-03-14 Nec Research Institute, Inc. Method and apparatus for object recognition
US6128606A (en) * 1997-03-11 2000-10-03 At&T Corporation Module for constructing trainable modular network in which each module inputs and outputs data structured as a graph
US6269351B1 (en) * 1999-03-31 2001-07-31 Dryken Technologies, Inc. Method and system for training an artificial neural network
US6650779B2 (en) * 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
US7054850B2 (en) * 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP2002042107A (ja) 2000-07-31 2002-02-08 Fuji Electric Co Ltd ニューラルネットワークの学習方法
DE60130742T2 (de) * 2001-05-28 2008-07-17 Honda Research Institute Europe Gmbh Mustererkennung mit hierarchischen Netzen
US7007002B2 (en) * 2001-05-31 2006-02-28 Canon Kabushiki Kaisha Signal processing circuit involving local synchronous behavior
US7082394B2 (en) * 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03288258A (ja) * 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
JPH05197821A (ja) * 1991-11-11 1993-08-06 Omron Corp 階層型ニューラルネットの最適化方法及び装置
JPH05257917A (ja) * 1992-01-13 1993-10-08 Nec Corp 神経回路網及びそのパターン認識装置
JPH0764943A (ja) * 1993-08-23 1995-03-10 Advantest Corp 階層型ニューラルネットワークの学習方法
JPH0883261A (ja) * 1994-09-13 1996-03-26 Toshiba Corp ニューロ演算装置
JPH08115386A (ja) * 1994-10-19 1996-05-07 Hitachi Ltd パターン認識装置
JPH08166934A (ja) * 1994-12-13 1996-06-25 Hitachi Ltd ニューラルネットワークを用いた関数生成装置
JP2001344590A (ja) * 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
JP2002324226A (ja) * 2001-04-25 2002-11-08 Fuji Electric Co Ltd ニューロシステム及びその構築方法
JP2003296737A (ja) * 2002-03-15 2003-10-17 Microsoft Corp パターン認識を容易にするシステムおよび方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013720A (ja) * 2009-06-30 2011-01-20 Jfe Steel Corp カテゴリ判定ルールの作成方法、装置およびコンピュータプログラム
JP2014095678A (ja) * 2012-11-12 2014-05-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理プログラム
JP2018532441A (ja) * 2015-08-04 2018-11-08 シーメンス アクティエンゲゼルシャフト 脳腫瘍を分類するための視覚表現学習
JP2018010626A (ja) * 2016-06-30 2018-01-18 キヤノン株式会社 情報処理装置、情報処理方法
CN108241888A (zh) * 2016-12-27 2018-07-03 电装 It 研究所 信息估计装置和信息估计方法

Also Published As

Publication number Publication date
US8015130B2 (en) 2011-09-06
US20100121798A1 (en) 2010-05-13
US20050283450A1 (en) 2005-12-22
US7676441B2 (en) 2010-03-09

Similar Documents

Publication Publication Date Title
JP2005352900A (ja) 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP4532915B2 (ja) パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US10002313B2 (en) Deeply learned convolutional neural networks (CNNS) for object localization and classification
Kumar et al. Object detection system based on convolution neural networks using single shot multi-box detector
Tavanaei et al. Multi-layer unsupervised learning in a spiking convolutional neural network
Alani et al. Hand gesture recognition using an adapted convolutional neural network with data augmentation
JP4083469B2 (ja) 階層ネットワークを用いたパターン認識方法
Bodapati et al. Feature extraction and classification using deep convolutional neural networks
Pavani et al. Haar-like features with optimally weighted rectangles for rapid object detection
CN109840531A (zh) 训练多标签分类模型的方法和装置
JP2008536211A (ja) ニューラルネットワークを実現するオブジェクトイメージにおいて興味のあるポイントを位置決めするシステム及び方法
US11443514B2 (en) Recognizing minutes-long activities in videos
US20180082179A1 (en) Systems and methods for deep learning with small training sets
CN112307982A (zh) 基于交错增强注意力网络的人体行为识别方法
He et al. Improving object detection with relation graph inference
CN112883941A (zh) 一种基于并行神经网络的人脸表情识别方法
Bischof Pyramidal neural networks
KR102127946B1 (ko) 사람 재식별 장치 및 방법
JP4510237B2 (ja) パターン検出装置及び方法、画像処理装置及び方法
US11526757B2 (en) Systems and methods for deep learning with small training sets
JP4314017B2 (ja) 階層処理装置
JP4532678B2 (ja) パターン検出装置及び方法、画像処理装置及び方法、ニューラルネットワーク装置
Lin et al. Ml-capsnet meets vb-di-d: A novel distortion-tolerant baseline for perturbed object recognition
CN113435315A (zh) 一种基于双路神经网络特征聚合的表情识别方法
EP4058940A1 (en) Permutation invariant convolution (pic) for recognizing long-range activities

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070611

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110708