JP4532915B2 - パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 - Google Patents

パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP4532915B2
JP4532915B2 JP2004021823A JP2004021823A JP4532915B2 JP 4532915 B2 JP4532915 B2 JP 4532915B2 JP 2004021823 A JP2004021823 A JP 2004021823A JP 2004021823 A JP2004021823 A JP 2004021823A JP 4532915 B2 JP4532915 B2 JP 4532915B2
Authority
JP
Japan
Prior art keywords
learning
feature
pattern recognition
layer
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004021823A
Other languages
English (en)
Other versions
JP2005215988A (ja
Inventor
優和 真継
カルドン ピエール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004021823A priority Critical patent/JP4532915B2/ja
Priority to US11/044,188 priority patent/US7697765B2/en
Publication of JP2005215988A publication Critical patent/JP2005215988A/ja
Application granted granted Critical
Publication of JP4532915B2 publication Critical patent/JP4532915B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

本発明は、パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体に関し、特に、画像データに基づき、顔や人物、車両、その他の物体の検出・認識を行う機能を実現する為の学習を行うために用いて好適なものである。
従来から、画像認識を行うために、認識対象の検出に必要な特徴量を学習する方法として、例えば、非特許文献1に記載されている技術があった。前記非特許文献1に記載されている技術は、画像にいわゆるInterest演算子を作用させてコーナやライン交差などの局所特徴点を抽出し、然る後、k-平均法などのベクトル量子化によるクラスタリングの技術を適用して有用な少数の特徴を抽出する方法である。
また、画像認識の手法としては、例えば非特許文献2、3に記載されている技術等がある。前記非特許文献2に記載されている技術は、モデルとの類似度に関する特徴量を算出して画像認識を行う方法、即ち、対象のモデル画像を主成分分析して得られる固有画像関数空間へ入力パターンを写像してモデルとの特徴空間内での距離を算出する方法である。また、前記非特許文献3に記載されている技術は、複数の特徴抽出の結果(特徴ベクトル)及びその空間配置関係をグラフで表現し、弾性的グラフマッチングにより類似度の算出して画像認識を行う方法である。
さらに、生体の情報処理機構にヒントを得た神経回路網モデルによるパターン認識方法としては、階層的テンプレートマッチングを行う方法(例えば、特許文献1及び非特許文献4を参照)や、その他多層パーセプトロンや、動径基底関数(Radial Basis Function)ネットワークなどを用いる方法がある。
特公昭60−712号公報 M.Weber et al.,"Viewpoint-Invariant Learning and Detection of Human Heads, Proceedings of 4th International Conference on Automatic Face and Gesture Recognition",(米国),2000年,p.20−27 Sirovich et al.,"Low-dimensional procedure for the characterization of human faces,",(米国), J. Opt. Soc. Am. [A],1987年,第3巻(vol. 3),p.519−524 Lades et al.,"Distortion Invariant Object Recognition in the Dynamic Link Architecture,",(米国),IEEE Trans. on Computers,1993年,第42巻(vol.42),p.300−311 Fukushima & Miyake,"Neocognitron: A new algorithm for pattern recognition tolerant of deformation and shifts in position," ,(米国), Pattern Recognition,,1982年,第15巻(vol.15),p.455−469
しかしながら、前記非特許文献1に記載の学習方法で抽出される特徴は、特定の対象に対しては有効であっても、異なるカテゴリの対象の検出や認識が保障されないという問題点があった。
また、前記特許文献1及び前記非特許文献2ないし4などに例示される認識アルゴリズムは、いずれも、認識対象のサイズや向きの変動などにロバスト(robust)であるとういう要件と、複数の異なるカテゴリの対象の検出・認識に適用可能であるという要件とを満たすことが困難であるという問題点があった。
本発明は、前述した問題点に鑑みてなされたものであり、異なるカテゴリの対象の検出や認識に有用な局所特徴を、画像の集合から適切に抽出するための学習を行えることができるようにすることを目的とする
前述した目的を達成するために、本発明のパターン認識用学習方法は、複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習を行うパターン認識用学習方法であって、異なる種類の物体画像データの集合を入力する画像入力ステップと、前記画像入力ステップにより入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出ステップと、前記局所的特徴検出ステップにより検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリングステップと、前記クラスタリングステップによりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択ステップと、前記特徴選択ステップにより選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習ステップとを有することを特徴とする。
本発明のパターン認識用学習装置は、複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習を行うパターン認識用学習装置であって、異なる種類の物体画像データの集合を入力する画像入力手段と、前記画像入力手段により入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出手段と、前記局所的特徴検出手段により検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリング手段と、前記クラスタリング手段によりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択手段と、前記特徴選択手段により選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習手段とを有することを特徴とする。
本発明のコンピュータプログラムは、複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習をコンピュータに実行させるコンピュータプログラムであって、異なる種類の物体画像データの集合を入力する画像入力ステップと、前記画像入力ステップにより入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出ステップと、前記局所的特徴検出ステップにより検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリングステップと、前記クラスタリングステップによりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択ステップと、前記特徴選択ステップにより選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習ステップとをコンピュータに実行させることを特徴とする。
本発明のコンピュータ読み取り可能な記録媒体は、前記記載のコンピュータプログラムを記録したことを特徴とする。
本発明によれば、物体検出または認識に使うことを目的として、異なる種類の物体画像データを記述(表現)するのに有用な少数の局所特徴のクラスを自動的に学習により求めることができる
<第1の実施形態>
以下、図面を用いて本発明の第1の実施形態を詳細に説明する。
(全体構成概要)
図1は、本実施形態で用いるパターン認識用学習装置を組み込んだパターン認識装置の主要な構成要素をなす、パターン検出・認識を行うための並列階層処理ネットワークの全体構成の一例を模式的に示す図である。このパターン認識装置では、対象または幾何学的特徴などの認識(検出)に関与する情報を主として扱う。
図11は、本実施形態で用いるパターン認識装置の構成の一例を示すブロック図である。
図11において、パターン認識装置は、画像入力部111と、画像認識部112と、学習制御部113と、局所的特徴検出部1120と、局所的特徴検出部1120における局所的特徴の検出結果に対してクラスタリング(clustering)処理を行うクラスタリング部1121と、クラスタリング部1121におけるクラスタリング処理の結果に基づいて代表的局所特徴を選択する特徴選択部1122とを要部として含む。
なお、パターン認識装置は、例えば、制御プログラムなどが格納されているROMと、前記制御プログラムを実行するなどしてパターン認識装置を統括制御するCPUと、前記CPUが前記制御プログラムを実行する際のワークエリアなどとして用いられるRAMとを備えたマイクロコンピュータを用いることにより実現される。
画像入力部111としては、撮像手段または外部データベース等へのアクセス端末などが用いられ、人物や車など異なるカテゴリの画像を含むデータを入力する。
画像認識部112は、画像入力部111で入力された画像データを認識するために、階層的特徴抽出処理を行う。
局所的特徴検出部1120は、画像入力部111で入力された画像データから、後述する複数種類の局所特徴データを検出し、その画像データを保持する。
クラスタリング部1121は、局所的特徴検出部1120で抽出された複数の局所特徴データについて、自己組織化マップなどの手法により、クラスタリングを行って、複数の特徴クラスに分類する。
特徴選択部1122は、クラスタリング部1121により分類された複数の特徴クラスから代表的特徴クラスを選択する。
学習制御部113は、特徴選択部1122により選択された代表的局所特徴を、画像認識部112の学習用データ(教師データの一部)として用い、後で説明する教師付き学習を行う。
図1は、画像認識部112の構成要素をなす、いわゆるConvolutionalネットワークの構造を模式的に表している。最終出力の分布は、認識結果、即ち認識された対象のカテゴリと、その検出位置情報とを反映する。なお、Convolutionalネットワークの構造については、例えば「LeCun, Y. and Bengio, Y., "Convolutional Networks for Images Speech, and Time Series"in Handbook of Brain Theory and Neural Networks (M. Arbib, Ed.), MIT Press,1995年,p.255−258」に記載されている。
図1において、データ入力層101は、画像センサー手段(画像入力部111)、例えばCMOSセンサー、或いはCCD素子等の光電変換素子からのデータを保持する。
最初の特徴検出層102A((1,0))は、複数の解像度の画像を入力する。そして、画像パターンの局所的な低次の特徴(幾何学的特徴のほかに色成分特徴を含んでもよい)を、全画面の各位置(或いは、全画面にわたる所定のサンプリング点の各点)において、各画面の同一箇所で検出する。この検出は、複数のスケールレベル又は複数の解像度で行うとともに、特徴カテゴリの数だけ行う。特徴検出層102A((1,0))は、特徴量の種類(例えば、幾何学的特徴として所定方向の線分を抽出する場合にはその幾何学的構造である線分の傾き)に応じた受容野構造を有するニューロン素子から構成される。
特徴検出層102((1,k)、但し、k≧0)は、全体として異なる解像度の画像をシーケンシャルに入力する事により、複数の解像度(又はスケールレベル)の処理チャネルを、その都度形成する。そして、同一のスケールレベル(又は解像度)で処理を進行していく。これら特徴検出層102の各ニューロンは、検出すべきパターンの構造に応じた局所受容野構造(前層との局所的なシナプス結合構造)を有する。
特徴統合(特徴プーリング)層103A(2,0)は、所定の受容野構造(以下、受容野とは、直前の層の出力素子との結合範囲を意味するものとし、受容野構造とは、その結合荷重の分布を意味するものとする)を有するニューロン素子からなる。この特徴プーリング層103A((2,0))は、特徴検出層102A((1,0))からの複数のニューロン出力(特徴統合層ニューロンの局所受容野内)の統合処理として、局所平均化や最大出力抽出等によるサブサンプリングなどの演算を行う。なお、特徴プーリング層103内のニューロンの各受容野は、同一層内のニューロン間でモジュール(検出される特徴)の種類によらず共通の構造を有している。
各特徴検出層102((1,1)、(1,2)、・・・、(1,N))及び各特徴プーリング層103((2,1)、(2,2)、・・・、(2,N))内のニューロンは、それぞれ所定の受容野構造を持つ。そして、前述した各層と同様に、前者((1,1)、・・・、(1,N))は、各特徴検出モジュールにおいて複数の異なる特徴の検出を行い、後者((2,1)、・・・、(2,N))は、前段の特徴検出層からの複数の特徴に関する検出結果について上述したような統合処理を行う。
入力データ上の所定位置(或いはその位置を中心とする局所領域)での複数の幾何学的特徴に関する特徴プーリング層103内のニューロンは、互いに隣接して配置されており、各ニューロンは、より上位の特徴検出層のニューロンへの結合をなしている。
図9に示す特徴検出細胞201(FD(r,fk,i);(k≧0))は、入力データ上の場所rに該当する位置においての、(k+1)番目の特徴検出層でのi番目の特徴カテゴリを検出する細胞である。また、特徴プーリング細胞202(FI(r,fk,i);(k≧0))は、同様に入力データ上の場所rに該当する位置においての、(k+1)番目の特徴プーリング層でのi番目の特徴カテゴリに関する細胞である。
図9において、低次の特徴に関する層間で特徴検出層204((1,0))から特徴プーリング層205((2,0))への結合を局所受容野206とともに示した部分は、図1と異なり、各層間の結合がいずれも局所受容野構造を有することを模式的に示している。
各ニューロンは、分布重み係数と画像データとの積和入力を行って得られる結果に対して非線型squashing関数(典型的にはいわゆるLogistic関数または双曲正接関数)となる出力を行うが、他の非線形関数(例えば非単調関数など)となる出力を行ってもよい。
(特徴検出層での処理)
特徴検出層(1,0)の各ニューロン(または複数ニューロンからなる各グループ)は、所定の空間フィルタ機能を有する。また、この特徴検出層(1,0)では、スケールレベル(解像度)が一定で方向選択性の異なる複数の畳み込み演算カーネルに対応する受容野構造を有するニューロンからなる複数のニューロン集団を一まとめにして一つのチャネルを形成する。
特徴検出層(1,0)に続く後段の特徴検出層((1,1)、(1,2)、・・・)の各ニューロンは、前記特徴検出層(1,0)とは異なり、認識対象のパターンに固有の特徴を検出する受容野構造を、以下に説明するモジュールごとの教師付き学習により形成する。後の特徴検出層ほど、特徴検出を行う局所的な領域のサイズ、即ち、受容野サイズが認識対象全体のサイズに段階的に近くなり、幾何学的には中次または高次の特徴を検出する。
例えば、顔の検出と認識とを行う場合における中次(または高次)の特徴とは、顔を構成する目、鼻、口等の図形要素のレベルでの特徴を表す。なお、特徴検出層のニューロンの受容野構造は、一般的に(低次、高次の特徴抽出に依らず)興奮性と抑制性との結合を有するが、出力の安定化のために分流型抑制(shunting inhibition)性の結合を、前段の特徴抽出層の出力に基づいて受けるような機構を有してもよい。
(特徴プーリング層での処理)
特徴プーリング層((2,0)、(2,1)、・・・)のニューロンについて説明する。
図1に示すごとく特徴検出層(例えば、特徴検出層(1,0)から特徴プーリング層(例えば、特徴プーリング層(2,0))への結合は、当該特徴プーリング層のニューロンの受容野内にある前段の特徴検出層の同一特徴要素(タイプ)のニューロンから興奮性結合の入力を受けるように構成される。また、特徴プーリング層のニューロンは、前述したごとく、特徴カテゴリごとの局所平均化や、最大値検出によるサブサンプリング等を行う機能を有している。
すなわち、特徴プーリング層のニューロンは、同一種類の特徴検出層のニューロンから複数の信号を入力し、それらを局所的な領域(受容野)で統合して平均化する(或いは、受容野内での最大値等の代表値を算出する)ことにより、その特徴の位置のゆらぎや、変形に対しても確実に特徴を検出することができる。
(有用な局所特徴のクラスの選択処理)
次に、本発明の主眼であるパターン認識のための有用な局所特徴の選択処理の手順の一例について、図2に示すフローチャートを参照して説明する。
先ず、種類、大きさ、向き、撮影条件などの異なる様々な物体クラスを含む入力画像データの集合(各入力画像データ)に対して、いわゆるインテレスト・オペレータなどを作用させ、局所特徴を検出する(ステップS1)。
図3はその結果を示し、図中○の印の箇所は、検出された局所特徴の存在位置を表している。なお、インテレスト・オペレータについては、「Schmid, C., Mohr, R., Bauckhage, C. "Evaluation of interest point detectors,",International Journal of Computer Vision,(2001),第45巻(vol.45),pp.83−105」や、「Laptev, I. and Lindeberg, T. "Interest point detection and scale selection in space-time," in Proc. Scale Space Methods in Computer Vision, Lecture Notes in Computer Science,(2003),pp.372−387., Springer Verlag」などの文献に記載されている。
次に、その検出された局所特徴を含む所定サイズ(例えば、7×7の領域)の画像の集合に対して、照明変動の影響を軽減するためにヒストグラム均等化(histogram equalization)や輝度値正規化などの正規化処理(ステップS2)を行った後、自己組織化マップなどのクラスタリングを行う(ステップS3)。ここでは、自己組織化マップ(いわゆるSOM)を用いる事により、少数の有用な局所特徴クラスへの絞込みを行う。
本実施形態では、入力画像の正規化として、輝度値の範囲が正規化された人物の顔画像(300枚)、道路上の車両の斜め前方から見た画像(304枚)、及びその他一般的な建物や風景の画像(300枚)の集合を用い、これらの画像に対してインテレスト・オペレータ(いわゆるHarrisオペレータ)を作用させ、69753個(一画像あたり約60個のオーダ)の局所特徴(コーナのような特徴)を得た。ここで用いた画像のデータセットのうち、顔画像については様々なサイズ(144×108〜296×220)と、向き(−30°、0°、30°など)の顔画像を含んでいる。
これらに対して自己組織化マップを適用した結果、多数の局所特徴が、より少数(10のオーダ)のクラスの特徴に分類することができた。その結果、各クラスに数百個ほどの局所特徴が帰属することが確認された。同一のクラスに属する局所特徴の画像は、互いにユークリッド距離が所定閾値以下になっているが、異なるカテゴリの物体画像に由来する複数の画像が一般的には含まれる。
次に、複数のクラスに分類された中から代表的な特徴クラスを選択する(ステップS4)。この場合、自己組織化マップで得られた隣接、若しくは近接する各クラスの代表的局所特徴は、人間が視覚的に認識しても互いに類似度が高い場合がある。そこで(所定の特徴空間で互いに直交するような)互いに類似度の低い代表的クラスを選択する。
具体的には、特徴の類似度を評価するための距離尺度(特徴ベクトル空間のユークリッド距離など)を導入して、互いに所定閾値以上に離れた特徴を選択するか、或いは人間の視覚認識により代表的な特徴を選択する。この結果得られるそれぞれの特徴クラスには、ある程度異なる変動(サイズ変動、向き変動、照明変動など)の下での複数の局所特徴が含まれている。
次に、以上のようにして選択された局所特徴を用いて行う学習手順の一例について、図4に示すフローチャートを参照して説明する。
本実施形態で用いるパターン認識装置の要部をなす畳み込み神経回路(Convolutional Neural Network:以下、必要に応じてCNNと称する)の第2階層レベルにおける特徴検出層の各モジュールのニューロンが、教師信号として選択された局所特徴の画像データに選択的に反応するように、それぞれのモジュールに対して、教師付き学習を誤差逆伝播法(Back Propagation:以下、必要に応じてBPと称する)により行う(ステップS41〜S43)。この場合、正解用の学習画像として選択された局所特徴の画像データを用いるとともに、不正解用の学習画像としてそれ以外の異なるクラスなどの画像データを用いる。
階層レベルが2以上(最下位層レベルより上)の特徴検出モジュールにおいては、その階層レベルより下の結合(各ニューロンの受容野構造)を固定し(ステップS44)、当該特徴検出モジュールのニューロンの結合パターンだけを可変として、その階層レベルと1つ下の階層レベルとの間の結合の教師付き学習を行う(ステップS45)。これを順に上位の階層レベルについて行うようにして、全ての階層に対して学習を実行する(ステップS46、S47)。
本実施形態では、1つのクラスにつき、それに属する50個の互いに異なる局所特徴画像データと、そのクラスに属さない局所画像データセットとを用いて誤差逆伝搬法(BP)によりトレーニングした。交差検定法(cross-validation)を用いることにより、学習を行っているニューロン(第2階層レベル以下)での誤差(正解画像に対しては1、不正解画像に対しては−1または0が正しい出力としたときの、与えられた評価用入力画像データに対する出力の二乗平均誤差など)を最小にし、かつ変動にロバストな(例えば、サイズ変動は約2倍を許容し、回転変動は約±10度を許容することをロバスト性の基準とする)特徴検出ニューロンの受容野構造(4種類)が学習により形成された。
なお、畳み込み神経回路(CNN)では、受容野構造は、同じクラスの特徴カテゴリを検出するニューロン間で共有される(即ち、同一モジュールに属するニューロンは同じ受容野構造を有する)。
本実施形態では、より下位の階層レベル(具体的には第2階層レベル)から順に上位の階層レベルのモジュールに教師データを与えて誤差が最小となるように学習を行った。
教師データは、入力データと出力データとのペアであるデータセットであって、そのモジュールが検出予定の局所特徴の画像データセットを入力画像とした場合には、ニューロンの出力データとして発火状態に対応する値(例えば1)が与えられ、検出予定以外の画像データを入力した場合には、出力データとして非発火状態に対応する値(例えば−1)が与えられる。
このときに与えられる教師データとしては、入力データは、予め前述したクラスタリング(自己組織化マップ)により選択された局所特徴の集合から複数の局所特徴を抽出し、それらの適切な空間は位置関係によって特定され、認識対象の部分をなし、人間によって認知(識別)可能なまとまりのある図形パターンの画像データ(例えば、顔の中の目領域や、瞳領域など)を検出予定の画像データとする。なお、出力データは、第2階層レベルの学習時と同様に、入力データが検出予定の画像のときは発火状態とし、検出予定以外の不正解データのときは非発火状態とする。また、学習の収束は、誤差曲線の値の絶対値(または移動平均値、傾きの平均値)が所定の閾値以下か否かで判定する。
以上説明した学習の結果、得られた各局所特徴検出モジュールが、上に例示したように、変動に対してある程度のロバスト性があること、選択された局所特徴クラスで十分であること、および複数の異なる物体カテゴリ(例えば顔や車両など)の検出や認識に有効であることが確かめられた。
以上のように、本実施形態で説明した学習を行うことにより、物体の検出または認識に使うことを目的として、様々な撮影条件下で異なるクラスに属する複数の物体の画像を記述(表現)するのに有用な少数の局所特徴のクラス(図形アルファベット)を、自動的に求めることができる。
また、モジュールごとの学習により求められた図形アルファベットおよび中間特徴クラスを用いて、畳み込み神経回路網の特徴検出ニューロンの受容野を教師付き学習により形成することができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。なお、前述した第1の実施形態と同一の部分についての詳細な説明を省略する。
本実施形態における学習手順の一例を図5に示すフローチャートを参照して説明する。
ここでは、第1の実施形態で用いた畳み込み神経回路(CNN)において、複数の異なるカテゴリの物体に関する画像データ(例えば、人物の顔や車の画像など)を用いて、第2階層レベル以下の学習を第1の実施形態と同様に行う(ステップS51〜S53)。
然る後、学習済みの第2階層レベル以下の結合(受容野構造)を固定する(ステップS54)。そして、第2階層レベルより上の特徴検出層のニューロンの結合を自動学習する際は、最上位の特徴検出層のニューロンに、検出すべきカテゴリ(車両の場合、例えば、特定の角度から見たセダンやハッチバックなど)に属する画像データ(車両の場合、メーカや色などが含まれるものとする)を正解の教師データ(ニューロンが発火する事象に対応)として与えるとともに、それ以外のカテゴリに属する画像データを不正解の教師データ(即ち、ニューロンが発火しない事象に対応)として与えて、誤差逆伝播法(BP)を適用する(ステップS55)。
その結果、指定されたカテゴリの物体を検出することが可能な特徴検出モジュールが、最上位の特徴検出層に形成されるとともに、第2階層レベルより上位の中間層(特徴検出層)には、中間特徴の検出モジュールが自動的に生成される。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。なお、前述した第1及び第2の実施形態と同一の部分についての詳細な説明を省略する。
本実施形態では、選択された局所特徴の組み合わせにより得られる更に複雑な特徴であって、認識対象を構成する有用な中間的局所特徴を自動的に抽出する方法および装置の構成を示す。
第1及び第2の実施形態で示した畳み込み神経回路(CNN)の学習により生成された最下位層もしくは第2階層レベルで検出される局所特徴の集合(これらを図形アルファベットという)から複数の特徴を選択し、それらの所定の局所的空間配置によって得られる中間レベル図形パターンの集合(パターン認識における一種のボキャブラリイのようなもの)も、異なるカテゴリの物体検出/認識の分野において同様に有用であると考えられる。
第1及び第2の実施形態では、検出対象の物体の画像もしくは当該物体の局所画像を正解の教師データの一部として与える教師付き学習によりこのボキャブラリイの集合を生成した。これに対し、本実施形態では、予め学習によって形成された図形アルファベットの任意の組み合わせについて取り得る典型的な空間配置を選択し、その図形アルファベットパターン画像間の論理和や論理積(2値化画像の場合)、若しくは重み付き和(濃淡画像データの場合)などの演算を行うことにより新たな中間図形パターンのデータセットを生成する。
学習に用いる中間的局所特徴を生成する手順の一例を図6に示すフローチャートを参照して説明する。
先ず、第1の実施形態と同様に、様々な物体クラスを含む画像データセットからインテレスト・オペレータ等を用いて局所特徴の集合を抽出し(ステップS61)、正規化処理(ステップS62)を行った後、ベクトル量子化や自己組織化マップなどによるクラスタリング(ステップSS63)を行い、更に少数の有用な局所特徴のクラスを選択する(ステップS64)。
ここで選択された局所特徴クラス(図形アルファベットモデル)は、例えば、図7(C)に示すようなものであり、畳み込み神経回路(CNN)の、主に最下位層で検出されるものが含まれる。この局所特徴クラス(図形アルファベット)の検出モジュールを形成するために用いた教師データの一例を図7(A)に示す。これらの類型化処理(ステップS65)を行うことにより、図7(A)に示すような2値化特徴パターンとそれぞれの反転特徴パターンとの集合を得る。各2値化パターンの検出に用いられるニューロンの受容野構造を図7(B)に示す。そして、その集合から任意の2つの局所特徴ペアを選択(ステップS66)し、相対位置を一定範囲(この範囲は検出予定の中間特徴の種類により一般的に決まるが、ここでは例えば図形アルファベットサイズ程度とする)でずらしながら論理積(AND)や論理和(OR)演算等を行う(ステップS67)。このようにすると、図8に例示するような中間レベル図形パターン(以下、中間図形パターンと略称する)の集合が生成される。
生成された中間図形パターンは、畳み込み神経回路(CNN)の中間層モジュールに与える教師データのうちの正解用入力データとして用いることができる。実際に生成された中間図形パターンは、特定カテゴリの物体検出に有用でない場合もあるが、可能性のある局所特徴の組み合わせ配置関係により特定される、図8に例示されるような中間図形パターンの特徴検出モジュールを、学習により予め十分な種類の特徴に対応して複数生成しておく。このようにすることにより、複数の特定カテゴリ(検出/認識対象レベル)の検出/認識に必要な中間図形パターンだけを検出するような特徴検出モジュールが選択されるような学習を行うことができる。
その理由は、本実施形態に係る教師つき学習においては、ある中間図形パターンが特定物体の検出に有用である場合には、その中間図形検出モジュールのニューロンと物体検出用モジュールのニューロンとの興奮性結合が強化されるが、他の有用でない中間図形の検出モジュールニューロンとその物体検出用モジュールニューロン間の結合は強化されない(若しくは弱められたり、抑制性の結合が強化されたりする)からである。
以上のように、本実施形態で説明した学習を行うことにより、求められた図形アルファベットの所定の空間配置関係により特定される上位の(より複雑な)中間特徴(または高次特徴)であって、特定の物体の検出や認識に有用な特徴クラスを自動的に求めることができる。
<第1〜3の実施形態のパターン認識装置を搭載した撮像装置>
図10は、図11に示した構成を基本要素とする、前述した第1〜第3実施形態のパターン認識装置を搭載した撮像装置の構成の概要を示すブロック図である。
図10の撮像装置9は、撮影レンズおよびズーム撮影用駆動制御機構を含む結像光学系92、CCD又はCMOSイメージセンサー93、撮像パラメータ計測部94、映像信号処理回路95、記憶部96、撮像動作の制御や、撮像条件の制御などを行うための制御用信号を発生する制御信号発生部97、EVFなどファインダーを兼ねた表示ディスプレイ98、ストロボ発光部99、記録媒体910、及び被写体検出(認識)部911(前述した各実施形態での階層構造を持った並列パルス信号処理回路からなるパターン認識装置)などを具備する。
この撮像装置9は、例えば撮影された映像中から予め登録された人物の顔画像の検出(存在位置や、サイズの検出)を被写体検出(認識)部911により行う。その人物の位置、サイズ情報が、被写体検出(認識)部911から制御信号発生部97に入力されると、制御信号発生部97は、撮像パラメータ計測部94からの出力に基づき、その人物に対するピント制御、露出条件制御、及びホワイトバランス制御などを最適に行う制御信号を発生する。
前述した各実施形態のパターン検出(認識)装置を、このように撮像装置に用いた結果、被写体を確実に検出(認識)する機能を低消費電力かつ高速(リアルタイム)に実現して、人物等の検出とそれに基づく撮影の最適制御(AF、AEなど)を行うことができる。
なお、図10では、撮像装置にパターン認識装置を搭載する場合について例示したが、撮像装置とは異なるスキャナー等の画像入力装置に、パターン認識装置を搭載するようにしてもよい。
(本発明の他の実施形態)
前述した実施形態の機能を実現するべく各種のデバイスを動作させるように、該各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、前記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。
また、この場合、前記ソフトウェアのプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えば、かかるプログラムコードを格納した記録媒体は本発明を構成する。かかるプログラムコードを記憶する記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
また、コンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけでなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
さらに、供給されたプログラムコードがコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
本発明の第1の実施形態を示し、パターン検出・認識を行うための並列階層処理ネットワークの全体構成の一例を模式的に示す図である。 本発明の第1の実施形態を示し、パターン認識のための有用な局所特徴の選択処理の手順の一例を説明するフローチャートである。 本発明の第1の実施形態を示し、インテレスト・オペレータを作用させることにより画像から抽出された局所特徴の一例を示す図である。 本発明の第1の実施形態を示し、局所特徴を用いて行う学習手順の一例を説明するフローチャートである。 本発明の第2の実施形態を示し、局所特徴を用いて行う学習手順の一例を説明するフローチャートである。 本発明の第3の実施形態を示し、中間的局所特徴を生成する手順の一例を説明するフローチャートである。 本発明の第3の実施形態を示し、図形アルファベットパターン、対応する局所特徴検出ニューロンの受容野構造、及び図形アルファベットモデルの一例を示す図である。 本発明の第3の実施形態を示し、生成された中間図形パターンの一例を示す図である。 本発明の実施形態を示し、パターン検出・認識を行うための並列階層処理ネットワークの全体構成の一例を模式的に示す図であって、各層間の結合が局所受容野構造を有していることを模式的に示した図である。 本発明の実施形態を示し、本発明のパターン認識装置を内蔵した撮像装置の構成の一例を示したブロック図である。 本発明の実施形態を示し、パターン認識装置の構成の一例を示すブロック図である。
符号の説明
9 撮像装置
92 結像光学系
93 CCD又はCMOSイメージセンサー
94 撮像パラメータ計測部
95 映像信号処理回路
96 記憶部
97 制御信号発生部
98 表示ディスプレイ
99 ストロボ発光部
101 データ入力層
102 特徴検出層
103 特徴統合層
910 記録媒体
911 被写体検出(認識)部

Claims (23)

  1. 複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習を行うパターン認識用学習方法であって、
    異なる種類の物体画像データの集合を入力する画像入力ステップと、
    前記画像入力ステップにより入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出ステップと、
    前記局所的特徴検出ステップにより検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリングステップと、
    前記クラスタリングステップによりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択ステップと、
    前記特徴選択ステップにより選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習ステップとを有することを特徴とするパターン認識用学習方法。
  2. 前記学習ステップにより学習された結果に基づいて、前記物体画像データに基づく物体を認識または検出する画像認識ステップを有することを特徴とする請求項1に記載のパターン認識用学習方法。
  3. 前記代表局所特徴は、所定の階層レベルの前記局所的特徴に関するものであることを特徴とする請求項1に記載のパターン認識用学習方法。
  4. 前記クラスタリングステップは、前記局所的特徴検出ステップにより検出された複数の局所的特徴を、ベクトル量子化または自己組織化マップを用いてクラスタリングすることを特徴とする請求項1に記載のパターン認識用学習方法。
  5. 前記畳み込み神経回路網は、特徴検出層と特徴プーリング層とを交互に含むことを特徴とする請求項1に記載のパターン認識用学習方法。
  6. 前記局所的特徴検出ステップは、インテレスト・オペレータを用いて、前記局所的特徴を検出することを特徴とする請求項1に記載のパターン認識用学習方法。
  7. 前記学習ステップは、前記各階層について、当該階層のニューロンと、その1つ下の階層のニューロンとの間で、前記学習を行うことを特徴とする請求項1に記載のパターン認識用学習方法。
  8. 前記学習ステップは、前記選択された複数の代表的局所特徴の組み合わせの空間配置に基づき指定される所定の特徴を検出するように、前記学習を行うことを特徴とする請求項1に記載のパターン認識用学習方法。
  9. 前記学習ステップは、前記学習用データセットとして、前記画像入力ステップにより入力された物体画像データの特徴量に所定の正規化を行って得られるデータを用いることを特徴とする請求項1に記載のパターン認識用学習方法。
  10. 前記異なる種類の物体画像データは、同一のカテゴリに属する物体画像データであって、物体のサイズ、向き、コントラスト、及び色バランスの少なくとも一つの特性が異なることを特徴とする請求項1に記載のパターン認識用学習方法。
  11. 複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習を行うパターン認識用学習装置であって、
    異なる種類の物体画像データの集合を入力する画像入力手段と、
    前記画像入力手段により入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出手段と、
    前記局所的特徴検出手段により検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリング手段と、
    前記クラスタリング手段によりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択手段と、
    前記特徴選択手段により選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習手段とを有することを特徴とするパターン認識用学習装置。
  12. 前記学習手段により学習された結果に基づいて、前記物体画像データに基づく物体を認識または検出する画像認識手段を有することを特徴とする請求項11に記載のパターン認識用学習装置。
  13. 前記代表局所特徴は、所定の階層レベルの前記局所的特徴に関するものであることを特徴とする請求項11に記載のパターン認識用学習装置。
  14. 前記クラスタリング手段は、前記局所的特徴検出手段により検出された複数の局所的特徴を、ベクトル量子化または自己組織化マップを用いてクラスタリングすることを特徴とする請求項11に記載のパターン認識用学習装置。
  15. 前記畳み込み神経回路網は、特徴検出層と特徴プーリング層とを交互に含むことを特徴とする請求項11に記載のパターン認識用学習装置。
  16. 前記局所的特徴検出手段は、インテレスト・オペレータを用いて、前記局所的特徴を検出することを特徴とする請求項11に記載のパターン認識用学習装置。
  17. 前記学習手段は、前記各階層について、当該階層のニューロンと、その1つ下の階層のニューロンとの間で、前記学習を行うことを特徴とする請求項11に記載のパターン認識用学習装置。
  18. 前記学習手段は、前記選択された複数の代表的局所特徴の組み合わせ空間配置に基づき指定される所定の特徴を検出するように、前記学習を行うことを特徴とする請求項11に記載のパターン認識用学習装置。
  19. 前記学習手段は、前記学習用データセットとして、前記画像入力手段により入力された物体画像データの特徴量に所定の正規化を行って得られるデータを用いることを特徴とする請求項11に記載のパターン認識用学習装置。
  20. 前記異なる種類の物体画像データは、同一のカテゴリに属する物体画像データであって、物体のサイズ、向き、コントラスト、及び色バランスの少なくとも一つの特性が異なることを特徴とする請求項11に記載のパターン認識用学習装置。
  21. 請求項11〜20の何れか1項に記載の前記パターン認識用学習装置を有することを特徴とする画像入力装置。
  22. 複数の階層のニューロンを有する畳み込み神経回路網を用いて物体画像データに基づき物体を認識または検出するパターン認識装置の学習をコンピュータに実行させるコンピュータプログラムであって、
    異なる種類の物体画像データの集合を入力する画像入力ステップと、
    前記画像入力ステップにより入力された各物体画像データから所定の幾何学的構造を有する局所的特徴を検出する局所的特徴検出ステップと、
    前記局所的特徴検出ステップにより検出された複数の局所的特徴を所定の方法によりクラスタリングするクラスタリングステップと、
    前記クラスタリングステップによりクラスタリングされた結果に基づき、複数の代表局所特徴を選択する特徴選択ステップと、
    前記特徴選択ステップにより選択された前記代表局所特徴を教師データとして含む学習用データセットを用いて、前記畳み込み神経回路網の第3階層以降の各階層について、当該階層の直前の階層までのニューロンの結合を固定して、当該階層と直前の階層とのニューロンの結合に前記学習用データを与えて教師付き学習を行うことを順次上位の階層について実行する学習ステップとをコンピュータに実行させることを特徴とするコンピュータプログラム。
  23. 請求項22に記載のコンピュータプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2004021823A 2004-01-29 2004-01-29 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 Expired - Fee Related JP4532915B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004021823A JP4532915B2 (ja) 2004-01-29 2004-01-29 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US11/044,188 US7697765B2 (en) 2004-01-29 2005-01-28 Learning method and device for pattern recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004021823A JP4532915B2 (ja) 2004-01-29 2004-01-29 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2005215988A JP2005215988A (ja) 2005-08-11
JP4532915B2 true JP4532915B2 (ja) 2010-08-25

Family

ID=34857612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004021823A Expired - Fee Related JP4532915B2 (ja) 2004-01-29 2004-01-29 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
US (1) US7697765B2 (ja)
JP (1) JP4532915B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2945102A1 (en) 2014-05-15 2015-11-18 Ricoh Company, Ltd. Image processing apparatus, method of processing image, and program
US10657424B2 (en) 2016-12-07 2020-05-19 Samsung Electronics Co., Ltd. Target detection method and apparatus

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028271B2 (en) * 2002-11-06 2006-04-11 Canon Kabushiki Kaisha Hierarchical processing apparatus
JP4507679B2 (ja) * 2004-04-21 2010-07-21 富士ゼロックス株式会社 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
WO2006027743A1 (en) * 2004-09-08 2006-03-16 Koninklijke Philips Electronics N.V. Feature extraction algorithm for automatic ear recognition
US8306277B2 (en) 2005-07-27 2012-11-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method, and computer program for causing computer to execute control method of image processing apparatus
US20070140551A1 (en) * 2005-12-16 2007-06-21 Chao He Banknote validation
US20070156347A1 (en) * 2005-12-30 2007-07-05 Searete Llc Using a biological recording to obtain time values
JP4314266B2 (ja) * 2006-11-22 2009-08-12 キヤノン株式会社 画像制御装置及びその制御方法
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
KR101465668B1 (ko) * 2008-06-24 2014-11-26 삼성전자주식회사 단말 및 그의 블로깅 방법
CN101635763A (zh) * 2008-07-23 2010-01-27 深圳富泰宏精密工业有限公司 图片分类***及方法
TW201013546A (en) * 2008-09-19 2010-04-01 Altek Corp Hierarchical face recognition training method and hierarchical face recognition method thereof
JP5414416B2 (ja) * 2008-09-24 2014-02-12 キヤノン株式会社 情報処理装置及び方法
JP2011154501A (ja) * 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP2011186519A (ja) * 2010-03-04 2011-09-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5110235B1 (ja) * 2011-06-27 2012-12-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
US8768071B2 (en) 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
JP5772442B2 (ja) * 2011-09-22 2015-09-02 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
CN103310183B (zh) * 2012-03-16 2016-12-14 日电(中国)有限公司 人群聚集检测的方法与装置
US9811775B2 (en) * 2012-12-24 2017-11-07 Google Inc. Parallelizing neural networks during training
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
JP6107531B2 (ja) * 2013-08-15 2017-04-05 富士ゼロックス株式会社 特徴抽出プログラム及び情報処理装置
IL231862A (en) * 2014-04-01 2015-04-30 Superfish Ltd Image representation using a neural network
JP6632288B2 (ja) * 2014-12-12 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9524450B2 (en) * 2015-03-04 2016-12-20 Accenture Global Services Limited Digital image processing using convolutional neural networks
US9436895B1 (en) * 2015-04-03 2016-09-06 Mitsubishi Electric Research Laboratories, Inc. Method for determining similarity of objects represented in images
US20160350336A1 (en) * 2015-05-31 2016-12-01 Allyke, Inc. Automated image searching, exploration and discovery
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
US9830534B1 (en) * 2015-12-16 2017-11-28 A9.Com, Inc. Object recognition
WO2017146595A1 (en) * 2016-02-26 2017-08-31 Imagr Limited System and methods for shopping in a physical store
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
JP6968681B2 (ja) * 2016-12-21 2021-11-17 ホーチキ株式会社 火災監視システム
US11388360B2 (en) 2017-06-14 2022-07-12 Semiconductor Energy Laboratory Co., Ltd. Imaging device and electronic device
US10783394B2 (en) 2017-06-20 2020-09-22 Nvidia Corporation Equivariant landmark transformation for landmark localization
US10713816B2 (en) * 2017-07-14 2020-07-14 Microsoft Technology Licensing, Llc Fully convolutional color constancy with confidence weighted pooling
CN109300166B (zh) * 2017-07-25 2023-04-25 同方威视技术股份有限公司 重建ct图像的方法和设备以及存储介质
WO2019025909A1 (en) * 2017-08-01 2019-02-07 3M Innovative Properties Company NEURONAL STYLE TRANSFER FOR VARIETY AND IMAGE RECOGNITION
EP3673410A4 (en) * 2017-08-21 2021-04-07 Nokia Technologies Oy METHOD, SYSTEM AND DEVICE FOR PATTERN RECOGNITION
US10025950B1 (en) * 2017-09-17 2018-07-17 Everalbum, Inc Systems and methods for image recognition
US10949676B2 (en) 2018-04-09 2021-03-16 Accenture Global Solutions Limited Aerial monitoring system and method for identifying and locating object features
JP6937438B2 (ja) * 2018-07-31 2021-09-22 オリンパス株式会社 画像診断支援システムおよび画像診断支援方法
EP3629242A1 (de) * 2018-09-28 2020-04-01 Siemens Healthcare Diagnostics, Inc. Verfahren zum konfigurieren einer bildauswerteeinrichtung sowie bildauswerteverfahren und bildauswerteeinrichtung
CN110969173B (zh) * 2018-09-28 2023-10-24 杭州海康威视数字技术股份有限公司 目标分类方法及装置
CN110889325B (zh) * 2019-10-12 2023-05-23 平安科技(深圳)有限公司 多任务面部动作识别模型训练和多任务面部动作识别方法
DE202019105651U1 (de) 2019-10-14 2019-12-10 Blbr Gmbh System zur Bestimmung einer passenden Größe eines Mundstücks einer Zahnputzvorrichtung
US11170300B2 (en) 2020-01-23 2021-11-09 UMNAI Limited Explainable neural net architecture for multidimensional data
CN111444366B (zh) * 2020-04-10 2024-02-20 Oppo广东移动通信有限公司 图像分类方法、装置、存储介质及电子设备
WO2021243205A1 (en) * 2020-05-29 2021-12-02 Motion2Ai Method and system for geo-semantic recognition of structural object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04500420A (ja) * 1989-06-27 1992-01-23 トムソン―セーエスエフ 参照画像と現在画像との間の運動を推定するための反復法および、この方法を実施するための装置
JPH05274455A (ja) * 1992-03-27 1993-10-22 Toshiba Corp ニューラルネットワーク装置
JPH0675933A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 情報処理装置
JPH09330406A (ja) * 1996-06-10 1997-12-22 Fuji Facom Corp 学習支援装置およびパターン認識装置
JP2002008031A (ja) * 2000-06-16 2002-01-11 Canon Inc パターン検出装置及び方法、画像処理装置及び方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
JP2723118B2 (ja) * 1992-08-31 1998-03-09 インターナショナル・ビジネス・マシーンズ・コーポレイション 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置
WO1996009598A1 (en) * 1994-09-20 1996-03-28 Neopath, Inc. Cytological slide scoring apparatus
US6345119B1 (en) * 1996-02-19 2002-02-05 Fujitsu Limited Handwritten character recognition apparatus and method using a clustering algorithm
US6038337A (en) * 1996-03-29 2000-03-14 Nec Research Institute, Inc. Method and apparatus for object recognition
US6021220A (en) * 1997-02-11 2000-02-01 Silicon Biology, Inc. System and method for pattern recognition
US6363381B1 (en) * 1998-11-03 2002-03-26 Ricoh Co., Ltd. Compressed document matching
US7450229B2 (en) * 1999-01-25 2008-11-11 Amnis Corporation Methods for analyzing inter-cellular phenomena
US7054850B2 (en) * 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
US6801662B1 (en) * 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
JP2002358523A (ja) * 2001-05-31 2002-12-13 Canon Inc パターン認識処理装置及びその方法、画像入力装置
JP4846924B2 (ja) * 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04500420A (ja) * 1989-06-27 1992-01-23 トムソン―セーエスエフ 参照画像と現在画像との間の運動を推定するための反復法および、この方法を実施するための装置
JPH05274455A (ja) * 1992-03-27 1993-10-22 Toshiba Corp ニューラルネットワーク装置
JPH0675933A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 情報処理装置
JPH09330406A (ja) * 1996-06-10 1997-12-22 Fuji Facom Corp 学習支援装置およびパターン認識装置
JP2002008031A (ja) * 2000-06-16 2002-01-11 Canon Inc パターン検出装置及び方法、画像処理装置及び方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2945102A1 (en) 2014-05-15 2015-11-18 Ricoh Company, Ltd. Image processing apparatus, method of processing image, and program
US9911067B2 (en) 2014-05-15 2018-03-06 Ricoh Company, Ltd. Image processing apparatus, method of processing image, and program
US10657424B2 (en) 2016-12-07 2020-05-19 Samsung Electronics Co., Ltd. Target detection method and apparatus
US11380114B2 (en) 2016-12-07 2022-07-05 Samsung Electronics Co., Ltd. Target detection method and apparatus

Also Published As

Publication number Publication date
US7697765B2 (en) 2010-04-13
JP2005215988A (ja) 2005-08-11
US20050185835A1 (en) 2005-08-25

Similar Documents

Publication Publication Date Title
JP4532915B2 (ja) パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US20210319566A1 (en) Classifying motion in a video using detected visual features
JP6557783B2 (ja) オブジェクト検出のためのスケール依存プーリングによるカスケード型ニューラルネットワーク
US7308134B2 (en) Pattern recognition with hierarchical networks
US8015130B2 (en) Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
KR100442835B1 (ko) 인공 신경망을 이용한 얼굴 인식 방법 및 장치
Littlewort et al. Towards social robots: Automatic evaluation of human-robot interaction by facial expression classification
CN111444881A (zh) 伪造人脸视频检测方法和装置
JP4546157B2 (ja) 情報処理方法、情報処理装置、撮像装置
Markou et al. A neural network-based novelty detector for image sequence analysis
CN111242046B (zh) 一种基于图像检索的地面交通标志识别方法
Owayjan et al. Face detection with expression recognition using artificial neural networks
CN116110089A (zh) 一种基于深度自适应度量学习的面部表情识别方法
CN114492634B (zh) 一种细粒度装备图片分类识别方法及***
Bhanu et al. Introduction to the special section on learning in computer vision
Ragesh et al. Fast R-CNN based Masked Face Recognition for Access Control System
Ağgül et al. Development of a Counterfeit Vehicle License Plate Detection System by Using Deep Learning
EP3572983A1 (en) Low dimensional neural network based architecture
Kane et al. Sign Language apprehension using convolution neural networks
Farrajota et al. A deep neural network video framework for monitoring elderly persons
KR102624702B1 (ko) 자동차 번호 인식 방법 및 장치
VMK Portable Attendance Monitoring System Using Face Recognition
Bartlett et al. Towards social robots: Automatic evaluation of human-robot interaction by face detection and expression classification
Bui et al. Automatic Attendance Using Facial Recognition
Ng et al. Facial Expression Recognition Through Deep Learned Features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Ref document number: 4532915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees