JP6815743B2 - 画像処理装置及びその方法、プログラム - Google Patents

画像処理装置及びその方法、プログラム Download PDF

Info

Publication number
JP6815743B2
JP6815743B2 JP2016082329A JP2016082329A JP6815743B2 JP 6815743 B2 JP6815743 B2 JP 6815743B2 JP 2016082329 A JP2016082329 A JP 2016082329A JP 2016082329 A JP2016082329 A JP 2016082329A JP 6815743 B2 JP6815743 B2 JP 6815743B2
Authority
JP
Japan
Prior art keywords
discrimination
discriminating
discriminating means
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082329A
Other languages
English (en)
Other versions
JP2017191571A (ja
Inventor
ソクイ チン
ソクイ チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016082329A priority Critical patent/JP6815743B2/ja
Priority to US15/483,359 priority patent/US10402693B2/en
Publication of JP2017191571A publication Critical patent/JP2017191571A/ja
Application granted granted Critical
Publication of JP6815743B2 publication Critical patent/JP6815743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像中のパターンを高速に判別する画像処理装置及びその方法、プログラムに関するものである。
画像中の人体や顔といった特定のパターンを判別する技術が提案されている。特に、近年、携帯端末や車載機器等の組み込みシステム向けのパターン判別手法が注目されている。
非特許文献1では、パターン検出を高速化させるためのアルゴリズムが提案されている。ブースティング学習によってパラメータを生成し、特徴画像を用いて、カスケード接続された弱判別器を順に処理する。弱判別器の判別結果に基づいて、次の弱判別器を処理するかどうかを判断する。次の弱判別器を処理しない(打切り)と判断する場合、残りの弱判別器の処理を省略する。
特許文献1では、複数の演算装置を用いて判別処理の効率を向上させるための手法が提案されている。具体的には、予め判明している判別処理の通過率と処理時間に基づいて、演算装置の構成を調整することによって、処理効率の向上を図っている。
画像情報に基づく撮像装置の位置及び姿勢の計測は、複合現実感/拡張現実感における現実空間と仮想物体の位置合わせ、ロボットや自動車の自己位置推定、物体や空間の三次元モデリングなど様々な目的で利用される。
特許第5100596号公報
P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Vol. 1, pp. 511−518, December 2001.
特許文献1では、弱判別器をパイプラインで並列に処理し、演算装置の並列度を変更することによって、処理効率を向上させているが、打切り処理が生じた場合、演算装置の処理効率が低下することがある。
本発明の1態様によれば、画像処理装置に、画像から特徴データを生成する生成手段と、前記特徴データを参照して所定のパターンを判別する複数の判別手段と、前記複数の判別手段の動作を制御する制御手段とを備え、前記複数の判別手段は、処理結果が相互に依存しない第1及び第2の判別手段と、前記第1の判別手段と共通する特徴データを同一のメモリから参照する第3の判別手段とを含み、前記制御手段は、前記第1及び第2の判別手段を並列に動作させ、前記共通する特徴データを参照する前記第1及び第3の判別手段を順番に動作させ、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、前記第1及び第2の判別手段が判別条件を満足した場合に、該第1及び第2の判別手段の判別結果を用いて、前記第3の判別手段を動作させることを特徴とする。
本発明によれば、カスケード接続された弱判別器を効率的に並列処理し、パターン判別を高速化させることができる。
第1の実施形態におけるパターン判別処理の手順を示すフローチャートである。 第1の実施形態におけるパターン判別装置で処理する第1−3判別処理の論理構造の説明図である。 第1の実施形態におけるパターン判別装置で処理する第1と第2判別処理の例の説明図である。 第1の実施形態におけるパターン判別装置で処理する第1と第2判別処理の例の説明図である。 第1の実施形態におけるパターン判別装置のハードウェア構成を示すブロック図である。 第1の実施形態における判別処理部の構成を示すブロック図である。 第1の実施形態における並列弱判別器処理部の構成を示すブロック図である。 他の実施形態におけるパターン判別装置で処理する第1−3判別処理の論理構造の説明図である。
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1の実施形態)
<判別処理部の構成>
図5は、本実施形態によるパターン判別を実現可能なパターン判別装置の一構成例を示すブロック図である。パターン判別装置は、入力部501、データ保持部502、通信部503、表示部504、CPU505、ROM506、RAM507、判別処理部508を備える。詳細は後述する。
図6にパターン判別装置の判別処理部508の構成を示す。特徴画像生成部601は、2種類のフィルタを入力画像に作用させ、特性が異なる特徴画像(特徴データ列)を2枚生成する。生成された特徴画像を特徴画像保持部602に保持する。並列弱判別器処理部604は特徴画像保持部602に保持された特徴画像と、パラメータ保持部605に保持されたパラメータを読出し、複数の弱判別器を時分割に処理し、後述する第1−3判別処理を実行する。判別結果保持部606は並列弱判別器処理部604で処理した第1−3判別処理の判別結果を保持する。制御部603は、並列弱判別器処理部604の動作を制御する。
図7と図2はそれぞれ、並列弱判別器処理部604の構成と本パターン判別装置で処理する第1−3判別処理の論理構造を示す。第1弱判別器処理部701は、制御部603の指示に従って図2に示す論理構造に対応する第1と第3判別処理を実行し、それぞれの判別結果を計算する。第2弱判別器処理部702は、制御部603の指示に従って、特徴画像保持部602に保存された第1特徴画像と第2特徴画像にアクセスし、図2に示す論理構造に対応する第2判別処理を実行し、判別結果を計算する。第1及び第2特徴画像を同時にアクセスすることと、第1弱判別器処理部701と第2弱判別器処理部702が同時に動作することが可能である。処理統合部703は第1判別処理の判別結果と第2判別処理の判別結果を統合し、第3判別処理を実行するかどうかを判定する。
<弱判別器の論理構造に基づく動作>
図2に示す論理構造に基づいて、図7に示す本パターン判別装置で処理する第1−3判別処理の動作を説明する。
第1判別処理は、1個の弱判別器201を処理するための第1パラメータに基づいて判別結果を計算する。第1パラメータは、第1判別処理を実行する際に参照する第1特徴画像の画素(特徴データ)の位置を示す情報と閾値を包含する。
弱判別器201では、パラメータ保持部605に保持された第1パラメータの情報に従って第1判別処理を実行し、判別結果が成功であるかどうかを判別する。
第2判別処理は、2個の弱判別器202−203を処理するための第2と第3パラメータに基づいて判別結果を計算する。第2パラメータは第2判別処理を実行する際に参照する第2特徴画像の画素の位置を示す情報と閾値を包含する。第3パラメータは、第2判別処理を実行する際に画素を変換するための情報を包含する。
弱判別器202、203がカスケード接続され、順番に処理される。弱判別器202では、パラメータ保持部605に保持された第2と第3パラメータの情報に従って第2判別処理を実行する。弱判別器202の出力結果に従って弱判別器203を処理するかどうかを判断する。弱判別器203を処理しないと判断した場合、第2判別処理の判別結果が不成功である。弱判別器203を処理すると判断した場合、弱判別器203では、パラメータ保持部605に保持された第2と第3パラメータの情報に従って、残りの第2判別処理を完了させ、判別結果が成功であるかどうかを判別する。
第1判別処理の判別結果と第2判別処理の結果によって、第3判別処理を実行するかどうかを判断する。第1判別処理の判別結果と第2判別処理の判別結果が両方とも成功である場合、第3判別処理を実行する。そうでない場合、第3判別処理を実行しない。第1判別処理と第2判別処理とは、参照する特徴画像が異なり、かつ処理結果は相互に依存しない。このため、第1判別処理と第2判別処理とを同時に実行することが可能である。
第3判別処理は、2個の弱判別器204−205を処理するための第4と第5パラメータに基づいて判別結果を計算する。第4パラメータは第3判別処理を実行する際に参照する第2特徴画像の画素の位置を示す情報と閾値を包含する。第5パラメータは、第3判別処理を実行する際に画素を変換するための情報を包含する。
弱判別器204、205がカスケード接続され、順番に処理される。弱判別器204では、パラメータ保持部605に保持された第4と第5パラメータの情報に従って第3判別処理を実行する。弱判別器204の出力結果に従って弱判別器205を処理するかどうかを判断する。弱判別器205を処理しないと判断した場合、第3判別処理の判別結果が不成功である。弱判別器205を処理すると判断した場合、弱判別器205では、パラメータ保持部605に保持された第4と第5パラメータ情報に従って、残りの第3判別処理を完了させ、判別結果が成功であるかどうかを判別する。
第1−3判別処理の判別結果が全て成功である場合には、入力画像に所定パターンが存在すると判別する。それ以外の場合には、入力画像に所定パターンが存在しないと判別する。
<パターン判別処理の手順>
図1は、本実施形態におけるパターン判別処理の手順を示すフローチャートである。ステップS101では、一枚の入力画像から特徴画像を2枚生成し、特徴画像保持部602に保持する。
ステップS102では、第1−第3判別処理のための第1−第5パラメータを設定する。各弱判別器に対応する第1−第5パラメータは学習アルゴリズム(ブースティング学習等)によって予め決定される。
ステップS103では、特徴画像保持部602に保持する2枚の特徴画像の画素を参照して、第1判別処理(ステップS104−ステップS108)と第2判別処理(ステップS109−ステップS117)を行う。ステップS104−ステップS108は第1弱判別器処理部701の動作を示す。ステップS109−ステップS117は第2弱判別器処理部702の動作を示す。ステップS118は処理結果統合部702の動作を示す。
ステップS119では、第1と第2判別処理の判別結果に基づいて、第3判別処理を実行するかどうかを判断する。第1と第2判別処理の処理結果が両方とも成功である場合、ステップS120に進む。そうでない場合、ステップS128に進む。
ステップS120では、特徴画像保持部602に保持する特徴画像の画素を参照して、第3判別処理(ステップS121−ステップS127)を実行する。ステップS121−ステップS127は第1弱判別器処理部702の動作を示す。
ステップS128では、第1−第3判別処理の判別結果に基づいて、入力画像に所定パターンが存在するかどうかを判断し、パターン判別結果を結果保持部606に保持する。制御部603は、ステップS103、ステップS119、ステップS120を制御する。
<第1判別処理>
ステップS104では、第1判別処理のための弱判別器201に対応する第1パラメータ(D1,1,j、T1,1)を読出す。第1パラメータのD1,1,jは、第1特徴画像における座標であり、第1パラメータのT1,1は閾値である。第j番目(j:1〜K、K:弱判別器が参照する特徴画像上のデータの数)のパラメータD1,1,jを式(1)に示す。X1,1,jはX座標であり、Y1,1,jはY座標である。
Figure 0006815743

ステップS105では、座標(X1,1,j,Y1,1,j)に対応するK個の特徴データf(X1,1,j,Y1,1,j)を読み出す。
ステップS106では、弱判別器のスコアS1,1を算出する。説明のため、ここでは簡単な例として、式(2)に示すように、特徴画像の二点(K=2)を参照し(j=1,2)、その値の総和をスコアとする場合を示す。総和に限定される訳でなく、任意の特徴データ変換関数を用いて特徴データをスコアS1,1に変換しても良い。
Figure 0006815743

ステップS107では、スコアS1,1とステップS104で読み出された閾値T1,1を比較する。閾値を超えない場合、判別条件は満足されず、判別結果は不成功となり、ステップ109に進む。ステップ109では、第2判別処理の中止信号を送信することによって第2判別処理を強制的に終了させ、ステップS118に進む。閾値を超えた場合、判別条件は満足され、判別結果は成功となり、ステップS108に進む。ステップS108では、第2判別処理が終了するまで待機する。
<第2判別処理>
ステップS110では、第2判別処理のループを開始する。
ステップS111では、第2判別処理のための第i番目(i:1〜M、M:弱判別器の数)の弱判別器に対応する第2パラメータ(D2,i,j、T2,i)を読出す。本実施形態では簡単な例として、2個(M=2)の弱判別器202−203で第2判別処理を実行する場合を示す。第2パラメータのD2,i,jは第2特徴画像における座標であり、弱判別器によって異なる。第2パラメータのT2,iは閾値である。第j番目(j:1〜K、K:弱判別器が参照する特徴画像上のデータの数)のパラメータD2,i,jを式(3)に示す。X2,i,jはX座標であり、Y2,i,jはY座標である。
Figure 0006815743

ステップS112では、座標(X2,i,j,Y2,i,j)に対応するK個の特徴データf(X2,i,j,Y2,i,j)を読み出す。
ステップS113では、第i番目の弱判別器に対応する第3パラメータ(L2,i)を読出す。第3パラメータは、特徴データ変換関数を示す情報である。第i番目の弱判別器に対応する特徴データ変換関数はL2,i(.)であり、ステップS112で読み出した特徴データを対象とするパターンらしさに相当するスコアに変換する。
ステップS114では、第i番目の弱判別器のスコアS2,iを特徴データ変換関数で算出する。説明のため、ここでは簡単な例として、第2特徴画像の二点(K=2)を参照し(j=1,2)、その値を弱判別のための特徴データとする場合を示す。スコアを計算した際に、第1判別処理の処理結果を利用しないため、第2判別処理は第1判別処理の処理結果に依存しない。
Figure 0006815743

ステップS115では、第1判別処理からの中止信号を受信したかどうかを判断する。中止信号を受信した場合、第2判別処理を終了させ、ステップS118に進む。中止信号を受信していない場合、ステップS116に進む。
ステップS116では、スコアS2,iとステップS111で読み出された閾値T2,iを比較する。スコアが閾値を超えない場合、通過しないと判定し、第2判別処理を終了し、ステップS118に進む。スコアが閾値を超えた場合、通過すると判定し、ステップS117に進む。第2判別処理において、最後の弱判別器203まで通過した場合には判別結果が成功である。
ステップS117では、第2判別処理のループの終了を判定する。本実施形態では、第2判別処理より第1判別処理の方が速いので、第2判別処理が終了する際に、第1判別処理は既に完了している。
ステップS118では、第1判別処理の処理結果と第2判別処理の処理結果を統合し、スコアと判別結果を保持する。統合が完了した後に、ステップS119に進む。
<第3判別処理>
ステップS121では、第3判別処理のループを開始する。
ステップS122では、第3判別処理のための第i番目(i:1〜M、M:弱判別器の数)の弱判別器に対応する第4パラメータ(D3,i,j、T3,i)を読出す。本実施形態では簡単な例として、2個(M=2)の弱判別器202−203で第2判別処理を実行する場合を示す。第4パラメータのD3,i,jは第1特徴画像における座標であり、弱判別器によって異なる。第1と第3判別処理では、同じ特徴画像(第1特徴画像)から画素が参照されるので、メモリが共通であり、メモリコストを削減することができる。また、第1と第3判別処理を順番に行うため、メモリアクセスによる競合が発生しない。第4パラメータのT3,iは閾値である。第j番目(j:1〜K、K:弱判別器が参照する特徴画像上のデータの数)のパラメータD3,i,jを式(5)に示す。X3,i,jはX座標であり、Y3,i,jはY座標である。
Figure 0006815743

ステップS123では、座標(X3,i,j,Y3,i,j)に対応するK個の特徴データf(X3,i,j,Y3,i,j)を読み出す。
ステップS124では、第i番目の弱判別器が対応する第5パラメータ(L3,i)を読出す。第5パラメータは、特徴データ変換関数を示す情報である。第i番目の弱判別器に対応する特徴データ変換関数はL3,i(.)であり、ステップS123で読み出した特徴データを対象とするパターンらしさに相当するスコアに変換する。
ステップS125では、式(6)に従って第i番目の弱判別器のスコアS3,iを特徴データ変換関数とオフセットSで算出する。説明のため、ここでは簡単な例として、第1特徴画像の二点(K=2)を参照し(j=1,2)、その値を弱判別のための特徴データとする場合を示す。第1と第2判別処理の判別結果を利用する場合には、判別処理オフセットSはS118で保持されたスコアであり、第3判別処理は第1と第2判別処理の処理結果に依存する。第1と第2判別処理の判別結果を利用しない場合には、オフセットSは定数であり、第3判別処理は第1と第2判別処理の処理結果に依存しない。
Figure 0006815743

ステップS126では、スコアS3,iとステップS122で読み出された閾値T3,iを比較する。閾値を超えない場合、通過しないと判定し、第3判別処理を終了させ、ステップS128に進む。閾値を超えた場合、通過すると判定し、ステップS127に進む。第3判別処理において、最後の弱判別器205まで通過した場合には、第3判別処理の判別結果が成功であり、入力画像に所定パターンが存在すると判別する。
ステップS127では、第3判別処理のループの終了を判定する。
<第1・第2判別処理における処理時間の説明>
図3に、第1判別処理の判別結果が不成功であり、入力画像に所定パターンが存在しない場合の例を示す。時間軸301は処理サイクルを示す。
サイクル1では、第1判別処理と第2判別処理を同時に開始し、第1パラメータ(D1,1,jとT1,1)と第2パラメータ(D2,1,jとT2,1)を読み出す。サイクル2では、第1判別処理を実行するため、第1パラメータに対応する第1特徴画像の画素を参照する。第2判別処理における弱判別器201を処理するため、第2パラメータに対応する第2特徴画像の画素を参照する。サイクル3では、式2に基づいて、第1特徴画像の画素を用いてスコアS1,1を計算する。それと同時に、第3パラメータ(L2,1)を読み出す。サイクル4では、サイクル3で計算されたスコアS1,1とサイクル1で読み出された閾値T1,1を比較する。それと同時に、式4に基づいて、第2特徴画像の画素と第3パラメータを用いてスコアS2,1を計算する。サイクル3で計算されたスコアS1,1が閾値T1,1を超えないと判定したため、第1判別処理の判別結果が不成功であり、第1と第2判別処理を中止させる。第1と第2判別処理を4サイクルの時間で完了することができる。
第1判別処理の判別結果が成功である確率が低ければ低いほど、4サイクルの時間で全ての判別処理が完了する可能性が高い。
図4に、第1判別処理の判別結果と第2判別処理の判別結果が両方とも成功である例を示す。時間軸401は処理サイクルを示す。
サイクル1からサイクル3までの処理は図3と同じである。サイクル4では、サイクル3で計算されたスコアS1,1とサイクル1で読み出された閾値T1,1を比較する。それと同時に、式4に基づいて、第2特徴画像の画素と第3パラメータを用いてスコアS2,1を計算する。サイクル3で計算されたスコアS1,1が閾値T1,1を超えたと判定したため、第1判別処理の判別結果が成功であり、第1判別処理と第2判別処理を中止させない。サイクル5では、サイクル4で計算されたスコアS2,1とサイクル1で読み出された閾値T2,1を比較する。スコアS2,1が閾値T2,1を超えたと判定したため、第2判別処理の弱判別器202を処理する。
サイクル6では、第1判別処理は待機状態である。第2判別処理を継続し、第2パラメータ(D2,2,jとT2,2)を読み出す。サイクル7では、第2判別処理の弱判別器203を処理するために、第2パラメータに対応する第2特徴画像の画素を参照する。サイクル8では、第3パラメータ(L2,2)を読み出す。サイクル9では、式4に基づいて、第2特徴画像の画素を用いてスコアS2,2を計算する。サイクル10では、サイクル9で計算されたスコアS2,2とサイクル6で読み出された閾値T2,2を比較する。スコアS2,2が閾値T2,2を超えたと判定したため、第2判別処理の判別結果が成功である。第1と第2判別処理を10サイクルの時間で完了できる。サイクル11以降は第3判別処理を実行する。
本実施形態では、第1判別処理と第2判別処理を同時に実行することによって処理時間を短縮する。また、第1判別処理が中止した時点で第2判別処理を停止させるため、次の入力画像による判別処理を直ちに開始することができ、演算装置の利用効率が向上する。また、第1と第3判別処理のための第1特徴画像は共通のメモリに保持されているため、メモリコストを削減することができる。
<パターン判別装置の構成例>
図5は、本実施形態によるパターン判別を実現可能なパターン判別装置の一構成例を示すブロック図である。
データ保存部502は、画像データを保持する部分である。データ保存部502は、通常はハードディスク、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリーカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等で構成される。データ保存部502には、画像データの他にも、プログラムやその他のデータを保存することも可能である。あるいは、後述するRAM507の一部をデータ保存部702として用いるのであっても良い。またあるいは、後述する通信部503により接続した先の機器の記憶装置を、通信部503を介して利用するというように仮想的に構成するのであっても良い。
表示部504は、画像処理前や画像処理後の画像を表示、あるいはGUI等の画像を表示する装置で、一般的にはCRTや液晶ディスプレイなどが用いられる。あるいは、ケーブル等で接続された装置外部のディスプレイ装置であっても構わない。
入力部501は、ユーザーからの指示やデータを入力する装置で、キーボードやポインティング装置やボタン等を含む。
また、あるいは公知のタッチスクリーン装置のように、表示部504と入力部501が同一装置であっても良い。その場合に、タッチスクリーンによる入力を入力部501の入力として扱う。
CPU505と判別処理部508は、本実施形態に係る主要な処理(ステップS101−S127)を実行すると共に本装置全体の動作を制御する。ROM506とRAM507は、その処理に必要なプログラム、データ、作業領域などをCPU505に提供する。後述する処理に必要なプログラムがデータ保存部502に格納されている場合や、ROM506に格納されている場合には、一旦RAM507に読み込まれてから実行される。またあるいは通信部503を経由して装置がプログラムを受信する場合には、一旦データ保存部502に記録した後にRAM507に読み込まれるか、直接通信部503からRAM507に直接読み込まれてから実行される。
CPU505で、指令を判別処理部508に送る。判別処理部508で、RAM507に書き込まれた画像データを読み出して本実施形態に係るパターン判別を実行し、その判別結果を再びRAM507に書き込む。パターン判別の結果に基づき、画像処理または画像認識をCPU505で行う。CPU505により処理された画像認識の結果は、RAM507に保存されるか、通信部503を介して外部装置に送信される。
なお、図5においては、CPUが1つのCPU505だけである構成だが、これを複数設けるような構成にしても良い。判別処理部508の構成とその中の並列弱判別器処理部604の構成をそれぞれ図6と図7に示す。CPU505の指令に基づいて、特徴画像生成部601、制御部603、並列弱判別器処理部604が動作する。
通信部503は、機器間の通信を行うためのI/Fである。なお、図5では入力部501、データ保存部502、表示部504が全て1つの装置内に含まれるような図を示しているが、あるいはこれらの部分が公知の通信方式による通信路で接続されており、全体としてこのような構成となっているのであっても構わない。
装置のシステム構成については、上記以外にも様々な構成要素が存在するが、本発明の主眼ではないのでその説明は省略する。
(他の実施形態)
第1の実施形態では、入力画像と特徴画像(2次元データ・2次元配列)に対し、パターン判別を行うという例について説明したが、任意次元の入力データ列と任意次元の特徴データ列でも良い。
第1の実施形態では、第1判別処理において弱判別器が1個ある例について説明したが、1個の弱判別器に限定される訳でなく、任意個の弱判別器であっても良い。ただし、第2判別処理の処理時間より、第1判別処理の処理時間の方が短いことを前提とする。図8にM個の弱判別器801−805がカスケード接続される判別処理の論理構造を示す。
第1の実施形態では、第2判別処理において2個の弱判別器がカスケード接続される例について説明したが、2個の弱判別器に限定される訳でなく、任意個の弱判別器であっても良い。図8にN個の弱判別器806−810がカスケード接続される判別処理の論理構造を示す。
第1の実施形態では、第3判別処理において2個の弱判別器がカスケード接続される例について説明したが、2個の弱判別器に限定される訳でなく、任意個の弱判別器であっても良い。図8にP個の弱判別器811−815がカスケード接続される判別処理の論理構造を示す。
第1の実施形態では、第1判別処理の判別結果に基づいて第2判別処理を強制的に終了させる例について説明した。しかしながら、第1判別処理と第2判別処理の中で、処理時間が一番短い判別処理の判別結果に基づいて第1判別処理と第2判別処理を強制的に終了させても良い。
第1の実施形態では、2種類の判別処理(第1判別処理と第2判別処理)を同時に開始する例について説明したが、2種類に限定される訳でなく、3種類以上であっても良い。
第1の実施形態では、1枚の入力画像を用いて2枚の特徴画像を生成する例について説明したが、1枚の入力画像に限定される訳でなく、複数枚の画像または動画像でも良い。
第1の実施形態では、1枚の入力画像を用いて2枚の特徴画像を生成する例について説明したが、2枚の特徴画像に限定される訳でなく、3枚(第1−3特徴画像)または3枚以上の特徴画像でも良い。また、第3判別処理では、第1特徴画像が参照される例について説明したが、第1特徴画像に限定される訳でなく、第2又は第3特徴画像でも良い。
第1の実施形態では、第1パラメータは式(1)で表されるX1,i,j,Y1,i,jについて説明したが、1枚の画像の座標に限定される訳でなく、複数枚の画像の座標または動画像を処理する際の時系列空間の複数組の座標であっても良い。
第1の実施形態では、第2パラメータは式(3)で表されるX2,i,j,Y2,i,jについて説明したが、1枚の画像の座標に限定される訳でなく、複数枚の画像の座標または動画像を処理する際の時系列空間の複数組の座標であっても良い。第4パラメータも同様である。
第1の実施形態では、スコア(S1,1とS2,i)は2組の座標と特徴データ変換関数で算出する例について説明したが、2組の座標に限定される訳でなく、複数組の座標と特徴変換関数で算出しても良い。
第1の実施形態では、2種類のフィルタをそれぞれ入力画像にかけ、2枚の特徴画像を生成する例について説明したが、任意の種類のフィルタを用いて任意枚の特徴画像を生成しても良い。
第1の実施形態では、2種類のフィルタをそれぞれ入力画像にかけ、2枚の特徴画像を生成する例について説明したが、フィルタに限定される訳でなく、任意の線形変換又は非線形変換であっても良い。また、入力画像がカラー画像の場合、各色プレーン或いはその色変換結果を特徴画像としても良い。更に、特徴画像は積分画像等であっても良い。
第1の実施形態では、判別処理部508で判別処理を実行する例について説明したが、判別処理部508を複数の判別処理を同時にできるマルチスレッドCPU(または複数個のCPU)に置き換えても良い。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータ読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
更に、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
601 特徴画像生成部
602 特徴画像保持部
603 制御部
604 並列弱判別器処理部
605 パラメータ保持部
606 判別結果保持部

Claims (12)

  1. 画像から特徴データを生成する生成手段と、
    前記特徴データを参照して所定のパターンを判別する複数の判別手段と、
    前記複数の判別手段の動作を制御する制御手段とを有し、
    前記複数の判別手段は、処理結果が相互に依存しない第1及び第2の判別手段と、前記第1の判別手段と共通する特徴データを同一のメモリから参照する第3の判別手段とを含み、
    前記制御手段は、前記第1及び第2の判別手段を並列に動作させ、前記共通する特徴データを参照する前記第1及び第3の判別手段を順番に動作させ、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、前記第1及び第2の判別手段が判別条件を満足した場合に、該第1及び第2の判別手段の判別結果を用いて、前記第3の判別手段を動作させることを特徴とする画像処理装置。
  2. 前記第1及び第2の判別手段の何れかは、前記複数の判別手段における他の判別手段より処理時間が短いことを特徴する請求項に記載の画像処理装置。
  3. 前記制御手段は、前記複数の判別手段の処理時間に基づいて当該複数の判別手段を動作させる順番を決定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記制御手段は、前記複数の判別手段のそれぞれが判別条件を満たした確率を予め算出しておき、当該確率に基づいて当該判別手段を動作させる順番を決定することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  5. 前記生成手段が、特性の異なる複数の特徴データを生成することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  6. 前記生成手段が、画像にそれぞれ異なる種類のフィルタを作用させて前記特性の異なる複数の特徴データを生成することを特徴とする請求項に記載の画像処理装置。
  7. 前記制御手段は、ある入力画像に対して、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、次の入力画像に対して、前記第1及び第2の判別手段の動作を開始させることを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  8. 前記判別手段が、前記特徴データからスコアを算出し、該スコアと閾値とを比較することで前記判別条件を満足するかを判断することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  9. 前記特徴データは特徴画像であり、前記判別手段が、当該特徴画像の複数の点のデータから前記スコアを算出することを特徴とする請求項に記載の画像処理装置。
  10. 前記判別手段が、前記特徴画像の複数の点のデータの総和に基づいて前記スコアを算出することを特徴とする請求項に記載の画像処理装置。
  11. 画像から特徴データを生成する生成工程と、
    前記特徴データを参照して所定のパターンを複数の判別手段により判別する判別工程とを有し、
    前記複数の判別手段は、処理結果が相互に依存しない第1及び第2の判別手段と、前記第1の判別手段と共通する特徴データを同一のメモリから参照する第3の判別手段とを含み、
    前記判別工程では、前記第1及び第2の判別手段を並列に動作させ、前記共通する特徴データを参照する前記第1及び第3の判別手段を順番に動作させ、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、前記第1及び第2の判別手段が判別条件を満足した場合に、該第1及び第2の判別手段の判別結果を用いて、前記第3の判別手段を動作させることを特徴とする画像処理方法。
  12. コンピュータを請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。
JP2016082329A 2016-04-15 2016-04-15 画像処理装置及びその方法、プログラム Active JP6815743B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016082329A JP6815743B2 (ja) 2016-04-15 2016-04-15 画像処理装置及びその方法、プログラム
US15/483,359 US10402693B2 (en) 2016-04-15 2017-04-10 Apparatus and method for classifying pattern in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082329A JP6815743B2 (ja) 2016-04-15 2016-04-15 画像処理装置及びその方法、プログラム

Publications (2)

Publication Number Publication Date
JP2017191571A JP2017191571A (ja) 2017-10-19
JP6815743B2 true JP6815743B2 (ja) 2021-01-20

Family

ID=60038334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082329A Active JP6815743B2 (ja) 2016-04-15 2016-04-15 画像処理装置及びその方法、プログラム

Country Status (2)

Country Link
US (1) US10402693B2 (ja)
JP (1) JP6815743B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
CN111598833B (zh) * 2020-04-01 2023-05-26 江汉大学 一种目标样本瑕疵检测的方法、装置及电子设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996549B2 (en) * 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
WO2006020627A1 (en) * 2004-08-11 2006-02-23 Aureon Laboratories, Inc. Systems and methods for automated diagnosis and grading of tissue images
US8135202B2 (en) * 2008-06-02 2012-03-13 Nec Laboratories America, Inc. Automated method and system for nuclear analysis of biopsy images
JP4513898B2 (ja) * 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置
JP5100596B2 (ja) 2008-10-03 2012-12-19 キヤノン株式会社 情報処理装置及び情報処理方法
US8644624B2 (en) * 2009-07-28 2014-02-04 Samsung Electronics Co., Ltd. System and method for indoor-outdoor scene classification
US8648959B2 (en) * 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US20170337711A1 (en) * 2011-03-29 2017-11-23 Lyrical Labs Video Compression Technology, LLC Video processing and encoding
US9092692B2 (en) * 2012-09-13 2015-07-28 Los Alamos National Security, Llc Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection
CA2804439A1 (en) * 2012-12-13 2014-06-13 Ehsan Fazl Ersi System and method for categorizing an image
US9292743B1 (en) * 2013-03-14 2016-03-22 Puretech Systems, Inc. Background modeling for fixed, mobile, and step- and-stare video camera surveillance
US9082015B2 (en) * 2013-03-15 2015-07-14 State Farm Mutual Automobile Insurance Company Automatic building assessment
US9129161B2 (en) * 2013-05-31 2015-09-08 Toyota Jidosha Kabushiki Kaisha Computationally efficient scene classification
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
CN103632136B (zh) * 2013-11-11 2017-03-29 北京天诚盛业科技有限公司 人眼定位方法和装置
US9471889B2 (en) * 2014-04-24 2016-10-18 Xerox Corporation Video tracking based method for automatic sequencing of vehicles in drive-thru applications
JP6706788B2 (ja) * 2015-03-06 2020-06-10 パナソニックIpマネジメント株式会社 画像認識方法、画像認識装置およびプログラム
JP6603477B2 (ja) * 2015-04-30 2019-11-06 キヤノン株式会社 情報処理装置、情報処理方法
US10037456B2 (en) * 2015-09-04 2018-07-31 The Friedland Group, Inc. Automated methods and systems for identifying and assigning attributes to human-face-containing subimages of input images
US10268881B2 (en) * 2015-09-30 2019-04-23 Canon Kabushiki Kaisha Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium

Also Published As

Publication number Publication date
US20170300787A1 (en) 2017-10-19
US10402693B2 (en) 2019-09-03
JP2017191571A (ja) 2017-10-19

Similar Documents

Publication Publication Date Title
US11557085B2 (en) Neural network processing for multi-object 3D modeling
RU2718222C1 (ru) Распознавание лиц с помощью искусственной нейронной сети
US20190392587A1 (en) System for predicting articulated object feature location
US20190156157A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
EP2608108A1 (en) Face feature vector construction
JP5235691B2 (ja) 情報処理装置及び情報処理方法
KR102476022B1 (ko) 얼굴검출 방법 및 그 장치
US10579909B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
JP6815743B2 (ja) 画像処理装置及びその方法、プログラム
WO2022227765A1 (zh) 生成图像修复模型的方法、设备、介质及程序产品
US20180032793A1 (en) Apparatus and method for recognizing objects
CN111801706A (zh) 视频对象检测
US10623629B2 (en) Imaging apparatus and imaging condition setting method and program
CN108521820B (zh) 使用深度神经网络的从粗略到精细的手部检测方法
US20210342624A1 (en) System and method for robust image-query understanding based on contextual features
KR102570286B1 (ko) 3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법
US10049487B2 (en) Identifying duplicate indices in an input index stream
JP6742837B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR101834279B1 (ko) 지연 특징 추출을 이용하여 얼굴을 검출하기 위한 이미지 처리 방법 및 시스템
CN114510142B (zh) 基于二维图像的手势识别方法及其***和电子设备
WO2019107466A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6204781B2 (ja) 情報処理方法、情報処理装置、およびコンピュータプログラム
CN113378773B (zh) 手势识别方法、装置、设备、存储介质以及程序产品
CN116580212B (zh) 图像生成方法、图像生成模型的训练方法、装置和设备
JP6827721B2 (ja) パターン判別装置、情報処理装置、パターン判別方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201223

R151 Written notification of patent or utility model registration

Ref document number: 6815743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151