JP2009104244A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2009104244A
JP2009104244A JP2007273044A JP2007273044A JP2009104244A JP 2009104244 A JP2009104244 A JP 2009104244A JP 2007273044 A JP2007273044 A JP 2007273044A JP 2007273044 A JP2007273044 A JP 2007273044A JP 2009104244 A JP2009104244 A JP 2009104244A
Authority
JP
Japan
Prior art keywords
image
feature
model
correlation
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007273044A
Other languages
English (en)
Other versions
JP4983539B2 (ja
Inventor
Akira Nakamura
章 中村
Yoshiaki Iwai
嘉昭 岩井
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007273044A priority Critical patent/JP4983539B2/ja
Priority to US12/234,777 priority patent/US8254690B2/en
Priority to CN2008101679635A priority patent/CN101414352B/zh
Publication of JP2009104244A publication Critical patent/JP2009104244A/ja
Application granted granted Critical
Publication of JP4983539B2 publication Critical patent/JP4983539B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】より確実に画像内の物体を認識する。
【解決手段】モデル画像21−1について、図6のステップS102で抽出された特徴点のそれぞれについて、図6のステップS103で記述された特徴量と、自身が抽出されたモデル画像21−1、および1以上の別モデル画像21−2乃至21−Nとの相関画像相関画像42−11乃至42−NPがステップS105で生成される。それらの相関画像に基づいて、モデル画像21−1の被写体を識別するための寄与度を示す識別能力値がステップS106で演算される。本発明は、例えば、画像内の物体を認識する物体認識装置に適用することができる。
【選択図】図6

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、より確実に画像内の物体を認識することができるようになった情報処理装置および方法、並びにプログラムに関する。
従来、局所特徴量を用いたテクスチャベースの一般物体認識手法が存在する(特許文献1参照)。かかる手法は、照明変化に強く、ロバストに物体の認識を可能にする一方で、テクスチャの少ない物体に適用すると識別能力が低下するという特徴がある。
また、本願の出願当初の出願人によって既に特願2006-100705号として出願された願書に添付した明細書等には、エッジ情報やサポート点を使用することにより、テクスチャのない物体に対して局所特徴マッチングの手法の適用を可能にするといった手法が開示されている。即ち、かかる手法とは、モデル画像とクエリ画像とから特徴点を抽出し、その周辺の局所特徴量を記述し、特徴量同士のマッチングを行い、ハフ変換やRANSAC等を用いたアウトライヤ(ミスマッチ)除去を行った後のマッチングペア数で、モデル画像内の物体とクエリ画像内の物体の識別をするという手法である。
特開2004-326693号公報
しかしながら、これらの従来の手法では、次のような3つの問題点が存在していた。その結果、これらの従来の手法よりも確実に画像内の物体を認識できる手法の実現が期待されている状況である。
即ち、第1の問題点とは、モデル画像の特徴点位置とクエリ画像の特徴点位置の出現再現性が悪い場合には、識別能力が著しく低下するという問題点である。この第1の問題点は、エッジを使用した場合には、モデル画像のエッジとクエリ画像のエッジの再現性が識別能力に大きく影響するというという問題点となる。
第2の問題点とは、最終的にモデルの識別をインライヤ(ミスマッチペア除去後)のマッチペア数で判断しているため、モデル画像内の物体とクエリ画像内の物体の類似度によらず、複雑なテクスチャや輪郭で、特徴点が多く出る物体同士のマッチペアは多くなり、単純なテクスチャや形状の物体は、マッチペアが少なくなるという傾向がある、という問題点である。
第3の問題点とは、ベース点周辺にサポート点を設け、マッチングの精度向上に利用する場合、サポート点の選択基準が、複数のモデル画像間の差異を考慮していない、という問題点である。
本発明は、このような状況に鑑みてなされたものであり、より確実に画像内の物体を認識することができるようにするものである。
本発明の一側面の情報処理装置は、クエリ画像とモデル画像とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報を提供する情報処理装置であって、前記モデル画像から1以上の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された1以上の前記特徴点の特徴量をそれぞれ記述する特徴量記述手段と、前記特徴点抽出手段により抽出された1以上の前記特徴点のそれぞれについて、前記特徴量記述手段により記述された自身の前記特徴量と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像をそれぞれ生成し、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値を演算する識別能力値演算手段とを備える。
前記特徴点抽出手段により抽出された前記1以上の特徴点のうちの少なくとも1つをベース点とし、前記ベース点の一定範囲内に存在する前記特徴点の中から、前記識別能力値演算手段により演算された前記識別能力値が前記ベース点よりも高い前記特徴点を、サポート点として選択するサポート点選択手段をさらに備える。
前記識別能力値演算手段は、前記相関画像全体の平均値と最大値の少なくとも一方に基づいて、前記識別能力値を演算する。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。
本発明の一側面においては、クエリ画像とモデル画像とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報として、次のような識別能力値が演算されて提供される。すなわち、前記モデル画像から1以上の特徴点が抽出され、抽出された1以上の前記特徴点の特徴量がそれぞれ記述される。そして、抽出された1以上の前記特徴点のそれぞれについて、記述された自身の前記特徴量と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像がそれぞれ生成され、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値が演算される。
以上のように、本発明の一側面によれば、画像内の物体を認識するために識別能力値を提供することができる。特に、本発明の一側面によれば、かかる識別能力値を利用することで、より確実に画像内の物体を認識することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。したがって、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の情報処理装置は、
クエリ画像(例えば図1のクエリ画像22)とモデル画像(例えば図1のモデル画像21−1乃至21−N)とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報を提供する情報処理装置(例えば図1の物体認識装置)において、
前記モデル画像から1以上の特徴点を抽出する特徴点抽出手段(例えば図2の特徴点抽出部31)と、
前記特徴点抽出手段により抽出された1以上の前記特徴点の特徴量をそれぞれ記述する特徴量記述手段(例えば図2の特徴量記述部32)と、
前記特徴点抽出手段により抽出された1以上の前記特徴点(例えば、図6のモデル画像21−1について、図6のステップS102で抽出された特徴点)のそれぞれについて、前記特徴量記述手段により記述された自身の前記特徴量(図6のステップS103で記述された特徴量)と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像をそれぞれ生成し(例えば、図6の相関画像42−11乃至42−NPをステップS105で生成し)、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値を演算する(例えば図6のステップS106で識別能力値を演算する)識別能力値演算手段(例えば図2の特徴点識別能力値演算部33)と
を備える。
前記特徴点抽出手段により抽出された前記1以上の特徴点のうちの少なくとも1つをベース点とし、前記ベース点の一定範囲内に存在する前記特徴点の中から、前記識別能力値演算手段により演算された前記識別能力値が前記ベース点よりも高い前記特徴点を、サポート点として選択するサポート点選択手段(例えば図2のサポート点選択部34)
をさらに備える。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。詳細については後述するが、このプログラムは、例えば、図17のリムーバブルメディア211や、記憶部208に含まれるハードディスク等の記録媒体に記録され、図17の構成のコンピュータにより実行される。
その他、本発明の一側面としては、上述した本発明の一側面のプログラムを記録した記録媒体も含まれる。
以下、図面を参照しながら本発明の実施の形態について説明する。
図1は、本発明の一実施の形態である物体認識装置の機能の構成を示すブロック図である。
図1において、物体認識装置は、モデル特徴量抽出部11、モデル特徴量辞書12、およびクエリ画像認識部13から構成される。
モデル特徴量抽出部11は、物体の認識において、認識の対象の物体をそれぞれ含むモデル画像21−1乃至21−N(Nは1以上の整数値)から、モデル特徴量をそれぞれ抽出して、モデル特徴量辞書12に登録する。
なお、モデル画像21−1乃至21−Nは、静止画像そのものまたは動画像のフレーム画像とされる。
クエリ画像認識部13は、モデル画像21−1乃至21−Nに含まれる各物体と比較され、認識される物体を含むクエリ画像22から、クエリ特徴量を抽出し、モデル特徴量辞書12に登録されているモデル特徴量とのマッチングを行い、そのマッチングの結果に基づいて、モデル画像21−1乃至21−N内の各物体とクエリ画像22内の物体との同定を試みる。
なお、クエリ画像22は、モデル画像21−1乃至21−Nと同様に、静止画像そのものまたは動画像のフレーム画像とされる。
以下、モデル特徴量抽出部11とクエリ画像認識部13とのそれぞれの詳細について、その順番で個別に説明していく。
なお、以下、モデル画像21−1乃至21−Nを個々に区別する必要がない場合、換言すると、モデル画像21−1乃至21−Nのうちの1つについて言及する場合、単にモデル画像21と称する。
図2は、モデル特徴量抽出部11の機能の詳細な構成を示すブロック図である。
モデル特徴量抽出部11は、特徴点抽出部31、特徴量記述部32、特徴点識別能力値演算部33、サポート点選択部34、および、モデル特徴量情報生成部35を含むように構成される。
特徴点抽出部31は、モデル画像21から特徴点を抽出し、その抽出結果を特徴量記述部32とモデル特徴量情報生成部35とに提供する。
なお、特徴点抽出部31が採用する特徴点抽出手法自体は特に限定されない。
具体的には例えば、図3は、Harrisコーナーディテクタ等を使用した特徴点抽出手法が採用された場合の特徴点の抽出結果を示している。図3の○(白丸印)が特徴点を示している。かかる手法では、図3に示されるように、コーナ点が特徴点として抽出される。
また例えば、図4は、Cannyエッジディテクタ等を使用した特徴点抽出手法が採用された場合の特徴点の抽出結果を示している。図4の○(白丸印)が特徴点を示している。かかる手法では、図4に示されるように、エッジ点が特徴点として抽出される。
特徴量記述部32は、特徴点抽出部31によって抽出された各特徴点の周辺で、局所特徴量記述を行う処理をそれぞれ行い、各処理結果を特徴点識別能力値演算部33とモデル特徴量情報生成部35とに提供する。
なお、特徴量記述部32が採用する局所特徴量記述手法自体は特に限定されない。
例えば、画素値の輝度勾配等を利用した、局所特徴量のベクトル記述を行う手法を採用できる。
具体的には例えば、図5に示されるように、特徴点周辺で、5x5画素の範囲の輝度勾配をベクトル記述する場合は、各画素の輝度勾配の、x成分、y成分をそれぞれ次元とし、(Vx(0,0),Vy(0,0), Vx(0,1), Vy(0,1),…Vx(4,4), Vy(4,4))で50次元ベクトルを構成する、といった手法を採用することができる。
また、別の手法としては、例えば、輝度勾配ベクトルの方向別にヒストグラムを取った記述手法等も採用できる。例えば特徴点周辺の起動勾配ベクトルの方向を、10度ごとにヒストグラムをとった場合36次元ベクトルとなる。
また例えば、輝度情報をそのまま特徴量とするといった手法等も採用できる。たとえば特徴量周辺の5x5画素の範囲で、輝度情報をそのままベクトル記述する場合は、25次元ベクトルとなる。
さらにまた、上述した各種記述手法を組み合わせてもよい。
特徴点識別能力値演算部33は、特徴点抽出部31によって抽出された各特徴点(特徴量記述部32により特徴量記述化された各特徴点)のそれぞれについて、識別能力値を演算し、それらの各演算結果をサポート点選択部34とモデル特徴量情報生成部35に提供する。
ここで、識別能力値とは、モデル画像21に含まれる被写体、即ち認識対象の物体を、他の物体(他のモデル画像に含まれる物体等)と区別して識別する場合において、その特徴点がその識別にどの程度寄与しているのか、即ち、その特徴点がその識別においてどの程度影響を及ぼしているのか、といった被写体を識別するための特徴点の能力(モデル識別の能力)を示す値をいう。
図6は、識別能力値が算出されるまでの一連の処理を説明するフローチャートである。
なお、以下、図6の記載に併せて、モデル画像21−1から抽出された各特徴点についての識別能力値が演算される場合の処理について説明をする。ただし、実際には、モデル画像21−1のみならず、別のモデル画像21−2乃至21−Nから抽出された各特徴点のそれぞれについても、以下の説明と同様の処理が施されて、識別能力値がそれぞれ演算される。
図6のステップS100において、モデル特徴量抽出部11は、全モデル画像21−1乃至21−Nを取得する。
ステップS102において、特徴点抽出部31は、上述したように、モデル画像21−1から1以上の特徴点を抽出する。ステップS103において、特徴量記述部32は、上述したように、モデル画像21−1から抽出された各特徴点について特徴量記述をそれぞれ行う。
このようなステップステップS102とS103の処理と並行して、ステップS104において、特徴点識別能力値演算部33は、モデル画像21−1乃至21−Nのそれぞれから、特徴量画像41−1乃至41−Nをそれぞれ生成する。
ここで、特徴量画像41−K(Kは、1乃至Nのうちの何れかの整数値)とは、モデル画像21−Kの全画素を対象として、特徴量記述部32に採用された局所特徴量記述手法と同一手法に従って特徴量記述がそれぞれ行われた場合、その記述結果、即ち、各特徴量を各画素値として構成された画像をいう。
ステップS105において、特徴点識別能力値演算部33は、モデル画像21−1の各特徴点(ステップS102の処理で抽出されて、ステップS103の処理で特徴量記述化された各特徴点)のうちの、識別能力を演算したいP個(Pは、ステップステップS102の処理で抽出された個数以下の整数値)の特徴点についてそれぞれ、相関画像を生成する。
ここで、相関画像42−KL(Kは、上述の特徴量画像41−KのKと同一値。Lは、1乃至Pのうちのいずれかの値)とは、次のような画像をいう。即ち、識別能力を演算したいP個の特徴点に1乃至Pの番号を付したする。そして、そのうちの処理の対象として注目すべき番号Lの特徴点を、注目特徴点Lと称するとする。この場合、注目特徴点Lの特徴量と、特徴量画像41−Kを構成する各画素値(即ち、各特徴量)とのマッチングがそれぞれ行われ、それぞれ相関(距離)値が求められたときに、それらの各相関値を各画素値として構成された画像が、相関画像42−KLとなる。このとき、相関値としては、例えば、ベクトル同士の正規化相関、距離0としてはユーグリッド距離等の尺度を採用することができる。
即ち、注目特徴点Lに対して、N枚の特徴量画像41−1,41−2,・・・,41−Nのそれぞれの各画素との相関を示すN枚の相関画像42−1L,42−2L,・・・,42−NLが生成される。
換言すると、1つの特徴量画像41−Kに対しては、番号1乃至Pがそれぞれ付されたP個の各特徴点毎に1枚ずつの相関画像、即ち、P枚の相関画像42−K1,42−K2,・・・,42−KPが生成される。
ステップS106において、特徴点識別能力値演算部33は、番号1乃至Pが付されたP個の各特徴点毎に、全相関画像の平均または最大値から識別能力値をそれぞれ演算する。即ち、特徴点識別能力値演算部33は、この平均または最大値の低いものから順に、モデル識別が高いものとして、識別能力値を与えていく。なお、全相関画像とは、注目特徴点Lに対して生成された相関画像の全て、即ち、N枚の相関画像42−1L,42−2L,・・・,42−NLをいう。
例えば、図7や図8には、識別能力値を画像化したものが示されている。ここで、識別能力値が高い特徴点ほど、明るく(白色に)なっている。即ち、図7は、カエルの形状を有する物体(以下、カエルと略称する)を含む画像がモデル画像21−1とされた場合の識別能力値の例を示している。図7に示されるように、カエルの目の付近が、識別能力値が高い、即ち、カエルであることを識別するために重要な部分であることがわかる。一方、図8は、犬の形状を有する物体(以下、犬と略記する)を含む画像がモデル画像21−1とされた場合の識別能力値の例を示している。図8に示されるように、犬の尾の付近が、識別能力値が高い、即ち、犬であることを識別するために重要な部分であることがわかる。
なお、図示はしないが、特徴点識別能力値演算部33は、図6のステップS106の処理後、例えば、P個の各特徴点の番号を、識別能力値の高い順に並び替える処理を実行してもよい。即ち、かかる処理後のP個の各特徴点の番号とは、モデル識別に重要な順番を示すことになる。
図2に戻り、サポート点選択部34は、特徴点識別能力値演算部33により算出された識別能力値を利用してサポート点を選択する。
ここで、サポート点とは、次のような点をいう。即ち、特徴点抽出部31により抽出された特徴点の中から基準となる点として選択された点を、以下、ベース点と称する。この場合、ベース点以外の特徴点であってベース点に従属して決定される点を、サポート点と称する。
サポート点の決定手法自体は特に限定されず、例えば本実施の形態では、モデル画像21において、ベース点の配置位置から一定範囲内にある特徴点のうちの、識別能力値がベース点よりも高い値を有する特徴点を、サポート点として選択する、といった手法が採用されているとする。かかる手法を採用した場合には、1つのベース点に対して、複数のサポート点が選択される場合もある。図9は、かかる手法に従ったサポート点選択部34の処理(以下、サポート点選択処理と称する)の一例を説明するフローチャートである。
図9のステップS121において、サポート点選択部34は、モデル画像21におけるP個の各特徴点の識別能力値を取得する。
ステップS122において、サポート点選択部34は、P個の特徴点から1以上のベース点を選択する。なお、ベース点の選択手法自体は特に限定されない。
ステップS123において、サポート点選択部34は、1以上のベース点のうちの所定の1つを処理対象として、その処理対象のベース点の位置から一定範囲内にある他の特徴点を抽出する。
ステップS124において、サポート点選択部34は、抽出された特徴点の識別能力値が、ベース点の識別能力値より高いか否かを判定する。
ここで、ステップS123の処理で、1つの特徴点も抽出されない場合がある。かかる場合には、ステップS124の処理でNOであると強制的に判定されて、処理はステップS126に進むとする。なお、ステップS126以降の処理については後述する。
逆に、ステップS123の処理で、複数の特徴点が抽出される場合がある。かかる場合には、複数の特徴点のうちの所定の1つがステップS124の処理対象となり、その処理対象の特徴点の識別能力値が、ベース点の識別能力値より高いか否かが判定される。
サポート点選択部34は、ステップS124において、抽出された特徴点の識別能力値がベース点の識別能力値より高いと判定した場合、ステップS125において、抽出された特徴点(複数の特徴点が抽出されている場合には、処理対象の特徴点)をサポート点として選択する。これにより、処理はステップS126に進む。
これに対して、ステップS124において、抽出された特徴点の識別能力値がベース点の識別能力値より低いと判定された場合、ステップS125の処理は実行されずに、即ち、抽出された特徴点(複数の特徴点が抽出されている場合には、処理対象の特徴点)はサポート点として選択されずに、処理はステップS126に進む。
ステップS126において、サポート点選択部34は、他に抽出された特徴点があるか否かを判定する。
即ち、上述したように、ステップS123の処理で複数の特徴点が抽出された場合には、ステップS126の処理でYESであると判定され、処理はステップS124に戻され、それ以降の処理が繰り返される。即ち、複数の特徴点のそれぞれが順次処理対象となり、ステップS124,S125,S126のループ処理が繰り返し実行される。その結果、複数の特徴点のうちの、ベース点よりも識別能力値が高い特徴点のみがサポート点として選択されることになる。複数の特徴点の全てについて上述のループ処理が実行されると、最後のループ処理のステップS126においてNOであると判定されて、処理はステップS127に進む。
また、ステップS123の処理で1つの特徴点のみが抽出された場合または1つの特徴点も抽出されなかった場合におけるステップS126の処理では、直ちにNOであると判定され、処理はステップS127に進む。
ステップS127において、サポート点選択部34は、他にベース点があるか否かを判定する。
まだ、処理対象となっていないベース点が存在する場合には、ステップS127の処理でYESであると判定されて、処理はステップS123に戻されてそれ以降の処理が繰り返される。
このようにして、1以上のベース点のそれぞれについて、サポート点が0以上選択されると、ステップS127の処理でNOであると判定されて、サポート点選択処理は終了する。
具体的には例えば、図10(A)乃至(C)のそれぞれには、ベース点とサポート点の選択結果が示されている。即ち、同一のモデル画像21から、3つのベース点が選択されており、それぞれのベース点が○(白丸)として、図10(A)乃至(C)のそれぞれに示されている。そして、それらの3つのベース点に対して選択された複数のサポート点が、図10(A)乃至(C)に、ベース点を示す○(白丸)よりも小さな●(黒丸)としてそれぞれ示されている。
図2に戻り、モデル特徴量情報生成部35は、以上説明した特徴点抽出部31乃至サポート点選択部34の各種処理結果を示すモデル特徴量情報(ベース点+サポート点)を生成し、モデル特徴量辞書12に登録する。即ち、モデル特徴量情報とは、モデル画像21−1乃至21−Nのそれぞれについて、抽出された各特徴点に関する情報をいう。具体的には例えば、それらの特徴点がベース点とサポート点との別に区別されて、それぞれについての局所特徴量や識別能力値、また、サポート点情報等から構成される情報が、モデル特徴量情報である。
以上、図1の物体認識装置のうちのモデル特徴量抽出部11の詳細について説明した。以下、クエリ画像認識部13の詳細について説明する。
図11は、クエリ画像認識部13の機能の詳細な構成を示すブロック図である。
クエリ画像認識部13は、特徴画像生成部51、相関画像生成部52、シフト相関画像生成部53、相関画像和生成部54、および判定部55を含むように構成される。
特徴画像生成部51は、認識させたい物体を含むクエリ画像22が入力されると、そのクエリ画像22から特徴量画像を生成する。即ち、上述した図6のステップS104と同様の処理がクエリ画像22に施されることになる。
相関画像生成部52は、クエリ画像22の特徴量画像の各画素値(即ち、各画素の特徴量)と、モデル特徴量辞書12に記録された各モデル画像21−1乃至21−Nの各特徴点(以下、各モデル特徴点と称する)の特徴量とのマッチングを行い、それぞれの相関(距離)値を各画素値として構成する画像、即ち、相関画像を生成する。
シフト相関画像生成部53は、各モデル特徴点の位置に応じて、それぞれ対応する相関画像の各画素位置をシフトさせた画像(以下、シフト相関画像と称する)を生成する。なお、シフト相関画像の生成手法については、図12乃至図16を参照して後述する。
相関画像和生成部54は、モデル画像21−1乃至21−N毎に、各モデル特徴点の各シフト相関画像、若しくは、それらに対して各種画像処理を施した後の各画像の和を取った画像(以下、相関和画像と称する)を生成する。即ち、相関和画像とは、2以上の画像の各画素値の総和を、それぞれの画素値として構成される画像をいう。
なお、相関和画像の生成手法(シフト相関画像に対して施される各種画像処理の例含む)の具体例については、図12乃至図16を参照して後述する。
判定部55は、モデル画像21−1乃至21−Nのそれぞれに対して生成された各相関和画像に基づいて、モデル画像21−1乃至21−Nに含まれる各物体がクエリ画像22に含まれている物体と同一であるか否かを判定し、その判定結果を出力する。
即ち、所定のモデル画像21−Kについての相関和画像のうちの、シフト相関画像の生成時のシフト位置(後述する例では中央付近の位置)の画素値が、相関和画像のローカルピークとなる。そして、かかるローカルピークが、モデル画像21−Kに含まれる物体が、クエリ画像22においてどの程度の割合で存在するのかを示す存在推定度を表すことになる。よって、判定部55は、モデル画像21−Kの相関和画像のローカルピークが閾値以上の場合、モデル画像21−Kに含まれる物体がクエリ画像22に含まれる画像と一致すると判定すること、即ち、その物体を認識することができる。
以下、図12乃至図16を参照して、クエリ画像認識部13の動作のうちの、主に相関画像生成部52乃至相関画像和生成部54の動作について説明する。
即ち、図13乃至図16は、図12(A)の画像がクエリ画像22として入力された場合における、図12(B)のモデル画像21との相関和画像が生成されるまでの各種処理結果の具体例を示している。
図13の例では、モデル画像21の特徴量情報として、4つのベース点b1乃至b4の特徴量のみが利用されて、相関和画像が生成される。換言すると、図13の例では、後述する他の例のように、サポート点の情報や、識別能力値は一切利用されない。なお、ベース点b1乃至b4は例示にしか過ぎず、ベース点の位置や個数は図13の例に限定されず任意であることは言うまでもない。
図13のステップS131において、相関画像生成部52は、クエリ画像22の特徴量画像の各画素値(即ち、各画素の特徴量)と、モデル画像21のベース点b1乃至b4の各特徴量とのマッチングを行うことで、図13のS131の枠内に示されるような4つの相関画像を生成する。
ステップS132において、シフト相関画像生成部53は、各ベース点b1乃至b4の位置に応じて、それぞれ対応する相関画像の各画素位置をシフトさせることで、図13のS132の枠内に示されるような4つのシフト相関画像を生成する。
図13の例のシフト相関画像は、モデル画像21におけるベース点bn(nは整数値であって、図13の例ではnは1乃至4のうちの何れかの値)の存在位置(相関画像の対応画素位置)が、画像の中央位置にシフトするように、相関画像の各画素位置がシフトされた結果得られる画像となっている。
ステップS133において、相関画像和生成部54は、これらの4つのシフト相関画像を単純に足し合わせることで、図13のS133の枠内に示されるような相関和画像を生成する。なお、「足し合わせるとは」、上述の如く、各画素毎に、各画素値を足し合わせることを意味する。このことは、以下の説明でも同様である。
このような図13の例に対して、図14の例では、モデル画像21の特徴量情報として、4つのベース点b1乃至b4の特徴量に加えて、それらの識別能力値に基づく重み値α1乃至α4が利用されて、相関和画像が生成される。
即ち、ステップS141において、相関画像生成部52は、クエリ画像22の特徴量画像の各画素値(即ち、各画素の特徴量)と、モデル画像21のベース点b1乃至b4の各特徴量とのマッチングを行うことで、図14のS141の枠内に示されるような4つの相関画像を生成する。
なお、図14のS141の枠内に示される4つの相関画像とは、図13のS131の枠内に示される4つの相関画像と同一である。即ち、ステップS141の処理とステップS131の処理とは同様の処理である。
ステップS142の処理では、シフト相関画像の生成処理が実行される。ただし、ステップS142の処理は、図13のステップS132の処理とは異なる。
即ち、ステップS142−1において、シフト相関画像生成部53は、各ベース点b1乃至b4の位置に応じて、それぞれ対応する相関画像の各画素位置をシフトさせることで、図14のS142−1の点線枠内に示されるような4つのシフト相関画像を生成する。
なお、図14のS142−1の点線枠内に示される4つのシフト相関画像とは、図13のS132の枠内に示される4つのシフト相関画像と同一である。即ち、ステップS142−1の処理とは、図13のステップS132の処理と同様の処理である。
換言すると、ステップS142の処理とは、図13のステップS132(=ステップS142−1)の処理に加えて、さらに次のようなステップS142−2の処理が付加された処理であるといる。なお、ステップS142−2の処理で最終的に得られるシフト相関画像と、ステップS142−1の処理の結果得られるシフト相関画像とを個々に区別すべく、以下、前者を重みつきシフト相関画像と称し、後者を単純シフト相関画像と称する。
即ち、ステップS142−1の処理では、図14のS142−1の点線枠内に示される4つの単純シフト相関画像が生成される。そこで、ステップS142−2において、シフト相関画像生成部53は、各ベース点b1乃至b4のそれぞれに対応する各単純シフト相関画像の各画素値に対して、各ベース点b1乃至b4の識別能力値に基づく重み値α1乃至α4をそれぞれ掛けることで、識別能力値に応じた重み付けがなされた各画素値により構成される画像、即ち、図14のS142−2の点線枠内に示されるような4つの重みつきシフト相関画像を生成する。
ステップS143において、相関画像和生成部54は、これらの4つの重みつきシフト相関画像を単純に足し合わせることで、図14のS143の枠内に示されるような相関和画像を生成する。
このような図13,図14の例に対して、図15の例では、モデル画像21の特徴量情報として、4つのベース点b1乃至b4の特徴量に加えてさらに、各ベース点b1乃至b4のサポート点の情報が利用されて、相関和画像が生成される。ただし、図15の例では、図14の例のように、識別能力値に基づく重み値α1乃至α4は利用されない。
ステップS151の処理では、相関画像の生成処理が実行される。ただし、ステップS151の処理は、図13のステップS131や図14のステップS141の処理とは異なる。
即ち、ステップS152−1において、相関画像生成部52は、クエリ画像22の特徴量画像の各画素値(即ち、各画素の特徴量)と、モデル画像21のベース点b1乃至b4の各特徴量とのマッチングを行うことで、図15のS151−1の枠内に示されるような4つの相関画像を生成する。
なお、図15のS151−1の枠内に示される4つの相関画像とは、図13のS131の枠内に示される4つの相関画像と同一、即ち図14のS141の枠内に示される4つの相関画像と同一である。即ち、ステップS151−1の処理とは、図13のステップS131や図14のステップS141の処理と同様の処理である。
換言すると、ステップS151の処理とは、図13のステップS131(=図14のステップS141=図15のステップS151−1)の処理に加えて、さらに次のようなステップS151−2,S151−3の処理が付加された処理であるといる。なお、以下、各ステップS151−1乃至S151−3の各処理の結果得られる相関画像を個々に区別すべく、ステップS151−1の処理の結果得られる相関画像をベース点相関画像と称し、ステップS151−2の処理の結果得られる相関画像をサポート点シフト相関画像と称し、ステップS151−3の処理の結果得られる相関画像を、ベース点bnを中心としたサポート点シフト相関画像和と称する。
即ち、ステップS151−1の処理では、図15のS151−1の点線枠内に示される4つのベース点相関画像が生成される。
ステップS151−2において、相関画像生成部52は、モデル画像21のベース点bnについて、クエリ画像22の特徴量画像の各画素値(即ち、各画素の特徴量)と、ベース点bnにおけるサポート点snm(mは、1以上の整数値)の各特徴量とのマッチングをそれぞれ行うことで、m個の相関画像を生成する。さらに、相関画像生成部52は、サポート点snmの存在位置(相関画像の対応画素位置)を、ベース点bnの存在位置(相関画像の対応画素位置)にシフトすることで、ベース点b1乃至b4のそれぞれについて、図14のS151−2の枠内に示されるようなm個のサポート点シフト相関画像をそれぞれ生成する。
即ち、ベース点b1には、2個のサポート点s11,s12が存在する。よって、サポート点s11についてのサポート点シフト相関画像と、サポート点s12についてのサポート点シフト相関画像が生成される。
以下同様に、ベース点b2には、3個のサポート点s21,s22,s23が存在する。よって、サポート点s21についてのサポート点シフト相関画像、サポート点s22についてのサポート点シフト相関画像、および、サポート点s23についてのサポート点シフト相関画像が生成される。
ベース点b3には、2個のサポート点s31,s32が存在する。よって、サポート点s31についてのサポート点シフト相関画像と、サポート点s32についてのサポート点シフト相関画像が生成される。
ベース点b4には、1個のサポート点s41が存在する。よって、サポート点s41についてのサポート点シフト相関画像が生成される。
ステップS151−3において、相関画像生成部52は、モデル画像21のベース点bnについて、対応するベース点相関画像(ステップS151−1の処理の結果得られる画像)と、対応するm個のサポート点シフト相関画像(ステップS151−2の処理の結果得られる画像)を単純に足し合わせることで、図15のS151−3の枠内に示されるような、ベース点bnを中心としたサポート点シフト相関画像和を生成する。
即ち、ベース点b1については、ベース点b1についてのベース点相関画像、並びに、サポート点s11についてのサポート点シフト相関画像およびサポート点s12についてのサポート点シフト相関画像が足し合わされ、その結果、ベース点b1を中心としたサポート点シフト相関画像和が生成される。
以下同様に、ベース点b2については、ベース点b2についてのベース点相関画像、並びに、サポート点s21についてのサポート点シフト相関画像、サポート点s22についてのサポート点シフト相関画像、および、サポート点s23についてのサポート点シフト相関画像が足し合わされ、その結果、ベース点b2を中心としたサポート点シフト相関画像和が生成される。
ベース点b3については、ベース点b3についてのベース点相関画像、並びに、サポート点s31についてのサポート点シフト相関画像およびサポート点s32についてのサポート点シフト相関画像が足し合わされ、その結果、ベース点b3を中心としたサポート点シフト相関画像和が生成される。
ベース点b4については、ベース点b4についてのベース点相関画像、並びに、サポート点s41についてのサポート点シフト相関画像が足し合わされ、その結果、ベース点b4を中心としたサポート点シフト相関画像和が生成される。
その後のステップS152,S153の処理は、図13のステップS132,S133の処理と基本的に同様の処理が実行される。ただし、図13のステップS132の処理対象は、図15のステップS151−1の処理結果であるベース点相関画像となっていた。これに対して、図15のステップS152の処理対象は、上述の如く、図15のステップS151−1の処理結果であるベース点相関画像に対して、ステップS151−2の処理結果であるサポート点シフト相関画像が足し合わされた結果得られる画像、即ち、ベース点を中心としたサポート点シフト相関画像和である。
図16の例は、図14の例と図15の例とを組み合わせた例である。即ち、図16の例では、モデル画像21の特徴量情報として、4つのベース点b1乃至b4の特徴量に加えて、それらの識別能力値に基づく重み値α1乃至α4と、各ベース点b1乃至b4のサポート点の情報との両者が利用されて、相関和画像が生成される。
換言すると、図16のステップS161の処理が、図15のステップS151の処理と同様の処理である。即ち、図16のステップS161−1乃至S161−3のそれぞれが、図15のステップS151−1乃至S151−3のそれぞれと同様の処理である。
一方、図16のステップS162の処理が、図14のステップS142の処理と同様の処理である。即ち、図16のステップS162−1,S162−2のそれぞれが、図14のステップS141−1,S141−2のそれぞれと同様の処理である。
式で表すと、図16のステップS161の処理結果は、次の式(1)のように表される。
Figure 2009104244
・・・(1)
式(1)の左辺のSumSpCorbn(x,y)が、ベース点bnを中心としたサポート点シフト相関画像和の座標(x,y)における画素値を示している。なお、nは、図16の例では1乃至4のうちの何れかの値とされているが、任意の整数値に一般化できることはいうまでもない。
また、式(1)の右辺において、Corsnm(x,y)が、サポート点snmの相関画像の(x,y)における画素値を示している。mbnは、ベース点bnにおけるサポート点の数を示している。即ち、図16の例では、mb1=2,mb2=3,mb3=2,mb4=1とされている。(bxn,byn)は、ベース点bnの座標を示している。(snxm,snym)は、サポート点snmの座標を示している。
そして、図16のステップS163の最終的な処理結果は、次の式(2)のように表される。即ち、式(2)の右辺のΣ内の式が、図16のステップS162の処理結果を示している。
Figure 2009104244
・・・(2)
式(2)の左辺のSumCor(x,y)が、ステップS163の処理の結果得られる相関和画像の座標(x,y)における画素値を示している。
また、式(2)の右辺において、(cx,cy)が、モデル画像21の中心座標を示している。
以上説明したように、本発明を適用することで、モデル画像と、クエリ画像の特徴点抽出のリピータビリティーを考慮する必要がなくなり、よりロバストな認識が可能になる。
また、相関画像和の所定画素値(例えば中央付近の画素値)、即ち、相関値の総和の値が、物体の存在推定度を表すので、この値を比較することにより、どの物体がどれ位の確率で存在しているかが分かるようになる。
また、自分のモデル画像の他の部分や、他のモデル画像との相関具合を考慮して、特徴量の識別能力値を演算し、その識別能力値に基づいてサポート点の選択もできるので、マッチングの精度が向上する。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図17は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
CPU201にはまた、バス204を介して入出力インターフェース205が接続されている。入出力インターフェース205には、キーボード、マウス、マイクロフォンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
入出力インターフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
入出力インターフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図17に示されるように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。例えば、以上においては、本発明を物体認識装置に適用した実施の形態について説明したが、本発明は、例えば、画像内の物体を比較し認識する情報処理装置に適用することができる。
本発明の一実施の形態である物体認識装置の機能の構成を示すブロック図である。 図1のモデル特徴量抽出部の機能の詳細な構成を示すブロック図である。 図2の特徴点抽出部の処理結果の具体例を示す図である。 図2の特徴点抽出部の処理結果の具体例を示す図である。 図2の特徴量記述部の処理手法の例を説明する図である。 図2の特徴点識別能力値演算部の処理例を説明するフローチャートである。 図6の処理結果の具体例を示す図である。 図6の処理結果の具体例を示す図である。 図2のサポート点選択部によるサポート点選択処理例を説明するフローチャートである。 図9の処理結果の具体例を示す図である。 図1のクエリ画像認識部の機能の詳細な構成を示すブロック図である。 図11のクエリ画像認識部の処理を説明するためのモデル画像とクエリ画像の具体例を示す図である。 図11のクエリ画像認識部の処理結果の具体例を示す図である。 図11のクエリ画像認識部の処理結果の具体例を示す図である。 図11のクエリ画像認識部の処理結果の具体例を示す図である。 図11のクエリ画像認識部の処理結果の具体例を示す図である。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
11 モデル特徴量抽出部, 12 モデル特徴量辞書, 13 クエリ画像認識部, 21 モデル画像21 クエリ画像, 31 特徴点抽出部, 32 特徴量記述部, 33 特徴点識別能力値演算部, 34 サポート点選択部, 51 特徴画像生成部, 52 相関画像生成部, 53 シフト相関画像生成部, 54 相関画像和生成部, 55 判定部, 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 211 リムーバブルメディア

Claims (5)

  1. クエリ画像とモデル画像とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報を提供する情報処理装置において、
    前記モデル画像から1以上の特徴点を抽出する特徴点抽出手段と、
    前記特徴点抽出手段により抽出された1以上の前記特徴点の特徴量をそれぞれ記述する特徴量記述手段と、
    前記特徴点抽出手段により抽出された1以上の前記特徴点のそれぞれについて、前記特徴量記述手段により記述された自身の前記特徴量と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像をそれぞれ生成し、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値を演算する識別能力値演算手段と
    を備える情報処理装置。
  2. 前記特徴点抽出手段により抽出された前記1以上の特徴点のうちの少なくとも1つをベース点とし、前記ベース点の一定範囲内に存在する前記特徴点の中から、前記識別能力値演算手段により演算された前記識別能力値が前記ベース点よりも高い前記特徴点を、サポート点として選択するサポート点選択手段
    をさらに備える請求項1に記載の情報処理装置。
  3. 前記識別能力値演算手段は、前記相関画像全体の平均値と最大値の少なくとも一方に基づいて、前記識別能力値を演算する
    請求項1に記載の情報処理装置。
  4. クエリ画像とモデル画像とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報を提供する情報処理装置の情報処理方法において、
    前記情報処理装置が実行するステップとして、
    前記モデル画像から1以上の特徴点を抽出し、
    抽出された1以上の前記特徴点の特徴量をそれぞれ記述し、
    抽出された1以上の前記特徴点のそれぞれについて、記述された自身の前記特徴量と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像をそれぞれ生成し、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値を演算する
    ステップを含む情報処理方法。
  5. クエリ画像とモデル画像とを比較し、前記モデル画像の被写体と前記クエリ画像の被写体とを同定するための支援情報を提供する情報処理装置を制御するコンピュータに、
    前記モデル画像から1以上の特徴点を抽出し、
    抽出された1以上の前記特徴点の特徴量をそれぞれ記述し、
    抽出された1以上の前記特徴点のそれぞれについて、記述された自身の前記特徴量と、自身が抽出された前記モデル画像、および1以上の別モデル画像との相関画像をそれぞれ生成し、それらの相関画像に基づいて、前記モデル画像の前記被写体を識別するための寄与度を示す識別能力値を演算する
    ステップを実行させるプログラム。
JP2007273044A 2007-10-19 2007-10-19 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4983539B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007273044A JP4983539B2 (ja) 2007-10-19 2007-10-19 情報処理装置および方法、並びにプログラム
US12/234,777 US8254690B2 (en) 2007-10-19 2008-09-22 Information processing apparatus, information processing method, and program
CN2008101679635A CN101414352B (zh) 2007-10-19 2008-10-16 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007273044A JP4983539B2 (ja) 2007-10-19 2007-10-19 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009104244A true JP2009104244A (ja) 2009-05-14
JP4983539B2 JP4983539B2 (ja) 2012-07-25

Family

ID=40594883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007273044A Expired - Fee Related JP4983539B2 (ja) 2007-10-19 2007-10-19 情報処理装置および方法、並びにプログラム

Country Status (2)

Country Link
JP (1) JP4983539B2 (ja)
CN (1) CN101414352B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003548A (ja) * 2010-06-17 2012-01-05 Toshiba Corp 情報処理装置および情報処理方法
WO2013088994A1 (ja) * 2011-12-14 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038239A (ja) * 2010-08-11 2012-02-23 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
CN102567736A (zh) * 2010-12-14 2012-07-11 三星电子株式会社 图像识别设备及方法
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JPH11312243A (ja) * 1998-04-28 1999-11-09 Victor Co Of Japan Ltd 顔領域検出装置
JP2002259978A (ja) * 2001-02-28 2002-09-13 Hitachi Ltd パターン認識装置
JP2006190201A (ja) * 2005-01-07 2006-07-20 Sony Corp 画像処理システム、学習装置および方法、並びにプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4284288B2 (ja) * 2005-03-10 2009-06-24 株式会社東芝 パターン認識装置及びその方法
JP4715539B2 (ja) * 2006-02-15 2011-07-06 トヨタ自動車株式会社 画像処理装置、その方法、および画像処理用プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JPH11312243A (ja) * 1998-04-28 1999-11-09 Victor Co Of Japan Ltd 顔領域検出装置
JP2002259978A (ja) * 2001-02-28 2002-09-13 Hitachi Ltd パターン認識装置
JP2006190201A (ja) * 2005-01-07 2006-07-20 Sony Corp 画像処理システム、学習装置および方法、並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003548A (ja) * 2010-06-17 2012-01-05 Toshiba Corp 情報処理装置および情報処理方法
WO2013088994A1 (ja) * 2011-12-14 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
US9355317B2 (en) 2011-12-14 2016-05-31 Nec Corporation Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof

Also Published As

Publication number Publication date
CN101414352A (zh) 2009-04-22
JP4983539B2 (ja) 2012-07-25
CN101414352B (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
US20220044040A1 (en) Liveness test method and apparatus
US8254690B2 (en) Information processing apparatus, information processing method, and program
JP4613617B2 (ja) 画像処理システム、学習装置および方法、並びにプログラム
JP4547639B2 (ja) 画像処理装置および方法、並びにプログラム
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP2011013732A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2011154501A (ja) 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012073684A (ja) 画像認識方法及び装置並びにプログラム
JP4983539B2 (ja) 情報処理装置および方法、並びにプログラム
WO2010043954A1 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
JP2012058787A (ja) 情報処理装置、およびその処理方法
KR20120066462A (ko) 얼굴 인식 방법 및 시스템, 얼굴 인식을 위한 학습용 특징 벡터 추출 장치 및 테스트용 특징 벡터 추출 장치
KR101753360B1 (ko) 시점 변화에 강인한 특징점 정합 방법
JP2018206252A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN108960247B (zh) 图像显著性检测方法、装置以及电子设备
US11189015B2 (en) Method and apparatus for acquiring feature data from low-bit image
JP6623851B2 (ja) 学習方法、情報処理装置および学習プログラム
KR20190018274A (ko) 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
JP2012226607A (ja) 特徴選択方法及び装置、パターン識別方法及び装置
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
JP5979008B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4873258B2 (ja) 情報処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees