JP2006018706A - 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム - Google Patents
被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム Download PDFInfo
- Publication number
- JP2006018706A JP2006018706A JP2004197539A JP2004197539A JP2006018706A JP 2006018706 A JP2006018706 A JP 2006018706A JP 2004197539 A JP2004197539 A JP 2004197539A JP 2004197539 A JP2004197539 A JP 2004197539A JP 2006018706 A JP2006018706 A JP 2006018706A
- Authority
- JP
- Japan
- Prior art keywords
- discriminator
- subject
- identification
- image
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出する識別装置を自動的に構成する。
【解決手段】 被写体識別装置10は、画像入力部11と統合識別器12から構成され、統合識別器12は、複数の識別器1〜Nと識別結果統合部13とを有し、統合識別器12は被写体識別器設定装置20からの出力によって設定される。被写体識別器設定装置20は、画像データ蓄積部21、被写体識別条件入力部22、識別器仕様テーブル作成部23、識別器仕様テーブル24及び統合識別器設定部25から構成される。この統合識別器設定部25は、入力された被写体識別条件に基づき、識別器仕様テーブル作成部23により自動で作成された識別器仕様テーブル24に基づき、目的の被写体を識別する統合識別器12を自動で設定する。
【選択図】 図1
【解決手段】 被写体識別装置10は、画像入力部11と統合識別器12から構成され、統合識別器12は、複数の識別器1〜Nと識別結果統合部13とを有し、統合識別器12は被写体識別器設定装置20からの出力によって設定される。被写体識別器設定装置20は、画像データ蓄積部21、被写体識別条件入力部22、識別器仕様テーブル作成部23、識別器仕様テーブル24及び統合識別器設定部25から構成される。この統合識別器設定部25は、入力された被写体識別条件に基づき、識別器仕様テーブル作成部23により自動で作成された識別器仕様テーブル24に基づき、目的の被写体を識別する統合識別器12を自動で設定する。
【選択図】 図1
Description
本発明は、画像に含まれる被写体を、精度よく識別するための被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラムに関するものである。
カメラ付き携帯電話やデジタルカメラの普及により、個人の扱う画像数は大きい。こうした画像中から目的とする被写体が写っている画像とそれ以外の画像に分類を行ったり、被写体の数による分類、検索を行うためには、画像中から目的の被写体のみを正確に検出する必要がある。
画像中から被写体を検出する画像処理の技術は、従来より研究されている。例えば、被写体の形状によるテンプレートを作成し、あるいは、被写体の形状を既定の形状に近似し、類似する形状をもつ、被写体を検出する方法が知られている(例えば、特許文献1参照。)。
しかし、撮影環境が規定通りの条件下に設定されていない場合や、撮影角度により見え方の異なる被写体の場合、検出は困難である。
また、被写体の部位を検出する手法も提案されている。例えば、顔領域では、目、鼻、口等の顔部位を見つけることで顔領域を検出する方法がある(例えば、特許文献2参照。)。
さらに、顔と顔でないもの(以下、非顔と記述)を学習して顔を判別する方法(例えば、特許文献3参照。)が研究されており、予め検出したい被写体の向きごとに何らかの特徴を既定し、向きごとのデータを用意し、検出したい角度ごとに識別器を構成することによって、対応する手法が提案されている。
特開2001−052176号公報
特開平09−073544号公報
特開2003−044853号公報
しかし、ユーザが被写体の有無、被写体の数、撮影環境、撮像機器によらず、自由に撮影した画像中から、任意の範囲の角度の変動をもつ被写体のみを検出する識別器を自動的に構成する方法はなかった。
本発明の目的は、ユーザが被写体の有無、被写体の数、撮影環境、撮像機器等によらず、自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出する識別装置を自動的に構成することができる被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラムを提供することにある。
上記の課題を達成するために、本発明は、識別対象となる画像を入力する画像入力手段と、入力された前記画像の中から所定の被写体を識別する複数の識別手段と、前記複数の識別手段の識別結果を統合する識別結果統合手段とを有する画像中から所定の被写体を識別する被写体識別装置における、前記複数の識別手段と前記識別結果統合手段とを設定する被写体識別器設定装置であって、
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手段と、前記複数の識別手段および前記識別結果統合手段を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手段と、前記被写体識別条件と前記画像データ蓄積手段に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手段に蓄積された画像に基づき前記複数の識別手段と前記識別結果統合手段とを設定する統合識別器設定手段とを有することを特徴とする。
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手段と、前記複数の識別手段および前記識別結果統合手段を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手段と、前記被写体識別条件と前記画像データ蓄積手段に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手段に蓄積された画像に基づき前記複数の識別手段と前記識別結果統合手段とを設定する統合識別器設定手段とを有することを特徴とする。
また、本発明は、前記識別器仕様テーブルが、前記複数の識別手段の利用個数を示す識別器利用個数と、利用する前記複数の識別手段のそれぞれの種類を表す識別器種別と、利用する前記複数の識別手段のそれぞれを構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別手段を統合する関数の情報である識別結果統合関数情報とを記憶することを特徴とする。
また、本発明は、前記識別器種別に基づき前記複数の識別手段のそれぞれに対して設定される当該識別手段が実行すべき処理手順の情報を記憶する識別器設定情報記憶手段をさらに有することを特徴とする。
また、本発明は、識別対象となる画像を入力する画像入力手順と、入力された前記画像の中から所定の被写体を識別する複数の識別手順と、前記複数の識別手順の識別結果を統合する識別結果統合手順とを有する画像中から所定の被写体を識別する被写体識別方法における、前記複数の識別手順と前記識別結果統合手順とを設定する被写体識別器設定方法であって、
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手順と、前記複数の識別手順および前記識別結果統合手順を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手順と、前記被写体識別条件と前記画像データ蓄積手順に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手順と、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手順に蓄積された画像に基づき前記複数の識別手順と前記識別結果統合手順とを設定する統合識別器設定手順とを有することを特徴とする。
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手順と、前記複数の識別手順および前記識別結果統合手順を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手順と、前記被写体識別条件と前記画像データ蓄積手順に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手順と、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手順に蓄積された画像に基づき前記複数の識別手順と前記識別結果統合手順とを設定する統合識別器設定手順とを有することを特徴とする。
また、本発明は、前記識別器仕様テーブルが、前記複数の識別手順の利用個数を示す識別器利用個数と、利用する前記複数の識別手順のそれぞれの種類を表す識別器種別と、利用する前記複数の識別手順のそれぞれを構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手順において用いられる、利用する前記複数の識別手順を統合する関数の情報である識別結果統合関数情報とを記憶することを特徴とする。
また、本発明は、前記識別器種別に基づき前記複数の識別手順のそれぞれに対して設定される当該識別手順が実行すべき処理手順の情報を記憶する識別器設定情報記憶手順をさらに有することを特徴とする。
また、本発明は、被写体識別器設定方法における手順を、コンピュータに実行させるためのプログラムとしたことを特徴とする。
また、本発明は、画像中から所定の被写体を識別する被写体識別装置において、識別対象となる画像を入力する画像入力手段と、入力された前記画像の中から所定の被写体を識別する複数の識別手段と、前記複数の識別手段の識別結果を統合する識別結果統合手段とを有し、前記複数の識別手段と前記識別結果統合手段は、前記被写体識別器設定装置によって設定されることを特徴とする。
また、本発明は、画像中から所定の被写体を識別する被写体識別方法において、識別対象となる画像を入力する画像入力手順と、入力された前記画像の中から所定の被写体を識別する複数の識別手順と、前記複数の識別手順の識別結果を統合する識別結果統合手順とを有し、前記複数の識別手順と前記識別結果統合手順は、前記被写体識別器設定方法によって設定されることを特徴とする。
さらに、本発明は、被写体識別方法における手順を、コンピュータに実行させるためのプログラムとしたことを特徴とする。
本発明では、以上のような特徴的な構成によって、撮像機器の光軸に対し、ある範囲の角度を成す被写体を検出できる識別器(識別手段)を自動的に設定し、識別を行うことができる。
また、識別の際には、ユーザにより識別器の仕様の調整を行うこともできるため、識別目的に応じた識別器を構成することが可能である。
また、本発明により設定された識別器は、ネットワークを介して処理を行うことも可能である。
以上説明したように、本発明によれば、ユーザが被写体の有無、被写体の数、撮影環境、撮像機器等によらず、自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出する識別装置を自動的に構成することができる。
以下本発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態を示す被写体識別装置10、および被写体識別器設定装置20の概略構成を示す構成説明図である。
被写体識別装置10は、画像入力部(画像入力手段)11と統合識別器12から構成され、統合識別器12は、複数の識別器(識別手段)1,2…Nと識別結果統合部(識別結果統合手段)13とから構成される。統合識別器12における複数の識別器1,2…Nと識別結果統合部13は、被写体識別器設定装置20からの出力によって設定される。
画像入力部11が、識別対象となる画像の入力を受け、被写体識別器設定装置20の出力によって設定された統合識別器12は、画像入力部11が入力した画像の中から目的の被写体を複数の識別器1,2…Nで識別し、その識別結果を、識別結果統合部13で統合して被写体検出結果を出力する。
被写体識別器設定装置20は、画像データ蓄積部(画像データ蓄積手段)21、被写体識別条件入力部(被写体識別条件入力手段)22、識別器仕様テーブル作成部(識別器仕様テーブル作成手段)23、識別器仕様テーブル24、および統合識別器設定部(統合識別器設定手段)25から構成される。
画像データ蓄積部21には、検出したい所定の被写体を含む複数の画像及び画像中における被写体の位置及び被写状態を示す被写体情報に関する情報を蓄積する。被写体識別条件入力部22は、検出したい被写体の変動や設定する識別器1,2…Nについての条件(目的とする被写体をどのように検出するかの条件)である被写体識別条件を入力する。
識別器仕様テーブル作成部23は、入力された被写体識別条件に基づき、識別器仕様テーブル24を自動で作成する。なお、識別器仕様テーブル24の作成時には、画像データ蓄積部21に蓄積されているデータ(被写体情報)をもとに自動作成してもよい。統合識別器設定部25は、識別器仕様テーブル24に記憶された識別器仕様情報と前記画像データ蓄積部21に蓄積された画像に基づき前記識別器1,2…Nと前記識別結果統合部13と設定し、目的の被写体を識別する統合識別器12を自動で設定する。
識別器仕様テーブル24には、被写体を識別する複数の識別器1,2…Nを組み合わせて、統合した統合識別器12(識別結果統合部13)を設定するために必要な識別器仕様情報が記憶される。
識別器仕様テーブル24の例を詳しく説明するために、以下に具体的な例を述べる。
識別器仕様テーブル24には、統合識別器設定部25で組み合わせる個々の識別器1,2…Nの種類を示す識別器種別と、組み合わせる識別器1,2…Nの利用個数を示す識別器利用個数と、利用する複数の識別器1,2…Nを構成する変数の情報を示す識別器構成変数情報と、前記識別結果統合部13において用いられる、利用する複数の識別器1,2…Nを統合する関数の情報を示す識別結果統合関数情報とが記憶されている。
識別器種別は、具体的には、テンプレートマッチングや学習判別法等の識別器1,2…Nの種類を示す識別器1,2…Nの種別である。
識別器利用個数は、統合識別器12を構成する際に、組み合わせる識別器1,2…Nの利用個数である。
識別器構成変数情報は、テンプレートマッチングのテンプレートや、学習判別法の学習データセット等の識別器1,2…Nを構成する変数の情報である。識別結果統合関数情報は、識別器1,2…Nを統合する関数の情報である。
画像データ蓄積部21は、検出したい被写体を含む画像群と画像中の被写体の被写状態を示すパラメータ(以下、被写体情報と記す)とを蓄積している。例えば、画像中での被写体や、被写体の部分の位置、大きさ、色、形状、向き、特徴点等の情報をテーブル化した被写体情報テーブルを、画像と関連付けて、あらかじめ蓄積してあるものとする。
また、被写体情報は、順序関係をなすインデクスとなるような状態を表すパラメータであるとする。具体的には、撮影された角度や画像中での大きさといったものであるとし、検出したい被写体の取り得る連続的な変動をカバーできるものであるとする。例えば、回転変動に対しては、一定の回転角度毎の画像及び被写体情報を蓄積してあるものとする。
さらに、識別器種別、識別器構成変数情報毎に、対応できる変動許容範囲を記録した識別器利用個数決定テーブル(後述の図10参照)を有し、識別器種別、識別器構成変数が決定された場合、被写体識別条件にあわせて構成する識別器1,2…Nの個数が決定されるものであってもよい。
被写体識別条件入力部22は、入力された画像中から、目的とする被写体をどのように検出するかの条件を示す被写体識別条件を入力する。具体的には、検出したい被写体の向き、大きさ等を指定し、「カメラに向かって正面向きの人物のみを検出する」、「ある一定の大きさ以上の被写体領域のみを検出する」、等の検出条件を指定できるものとする。
また、被写体識別条件として、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報を合わせて指定できてもよい。なお、こうした被写体識別条件は、予め初期値を設定しておき、ユーザが目的に応じて可変なものとしてもよい。
統合識別器設定部25では、作成された識別器仕様テーブル24を元に識別器1,2…Nを設定し、統合して、被写体識別条件を満たす統合識別器12を設定する。識別器1,2…Nは、識別器仕様テーブル24の識別器種別に従い、同じく識別器仕様テーブル24の識別器構成変数情報から設定する。また、識別器1,2…Nをその利用個数、識別結果統合関数情報に従って組み合わせ、統合識別器12とする。
図2は、被写体識別装置10、および被写体識別器設定装置20における処理の流れを示す流れ線図であり、各処理ステップに相当する処理の動作の主体及び対象は、図1に示すブロック構成説明図に相当する処理手段、設定手段、蓄積手段、テーブルである。図2における各ステップの具体的な処理の流れは、以下の通りである。
図2において、
ステップ1:識別対象となる画像を入力する、
ステップ2:被写体識別条件を入力する、
ステップ3:識別器仕様テーブル作成部23が、入力された被写体識別条件に基づき、識別器仕様テーブル24を作成する、
ステップ4:統合識別器設定部25が、識別器仕様テーブル24の設定値と画像データ蓄積部21の画像データに基づき、識別器を設定する、
ステップ5:統合識別器設定部25が、識別器仕様テーブル24の設定値に基づき、識別結果統合部13を設定する、
ステップ6:各識別器1,2…Nが、入力された画像の中から被写体を識別する、
ステップ7:識別結果統合部13が、各識別器1,2…Nの識別結果を統合する、
ステップ8:各識別器1,2…Nおよび識別結果統合部13の再調整を行う場合はステップ3へ、それ以外は処理を終了する。
ステップ1:識別対象となる画像を入力する、
ステップ2:被写体識別条件を入力する、
ステップ3:識別器仕様テーブル作成部23が、入力された被写体識別条件に基づき、識別器仕様テーブル24を作成する、
ステップ4:統合識別器設定部25が、識別器仕様テーブル24の設定値と画像データ蓄積部21の画像データに基づき、識別器を設定する、
ステップ5:統合識別器設定部25が、識別器仕様テーブル24の設定値に基づき、識別結果統合部13を設定する、
ステップ6:各識別器1,2…Nが、入力された画像の中から被写体を識別する、
ステップ7:識別結果統合部13が、各識別器1,2…Nの識別結果を統合する、
ステップ8:各識別器1,2…Nおよび識別結果統合部13の再調整を行う場合はステップ3へ、それ以外は処理を終了する。
図2の例では、識別結果により識別器仕様テーブル24の再調整を行う場合を想定しているが(ステップ8)、識別器仕様テーブル24の再調整を行わない場合には、ステップ1とステップ2〜5とを入れ替え、識別器1,2…Nおよび統合識別器12の設定を終えた後で、識別対象となる画像を入力するようにしても構わない。
本発明の実施の形態によれば、このように、被写体識別条件に基づき、所望の識別器1,2…Nと統合識別器12とを自動的に設定するため、検出したい被写体として、「カメラに向かって正面向きの人物のみを検出する」、「ある一定の大きさ以上の被写体領域のみを検出する」、等の検出条件を容易に設定することができる。
図3は被写体識別器設定装置20の概略構成を示し、図1による被写体識別器設定装置20における識別器仕様テーブル24を元に識別器を設定する構成についてさらに詳しく説明した構成説明図である。統合識別器設定部25では、この識別器仕様テーブル24を元に統合識別器12を設定する。ここで、識別器種別の情報を元に識別器を設定するための情報は、識別器設定情報記憶部26に記憶されているものとする。例えば、学習識別器で判別関数を設定し、被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は、識別器設定情報記憶部26に記憶されているものとする。なお、22aは識別器仕様情報入力部である。
図4は、被写体識別器設定装置20の識別器仕様テーブル作成部23で自動作成される識別器仕様テーブル24の一例を示す図である。
識別器仕様テーブル24には、識別する被写体、識別器利用個数、識別器構成変数情報、識別器種別、識別結果統合関数情報が記憶されているものとする。これらの項目を既定とし、その値を可変なものとする。
識別器利用個数は、最終的な識別器1,2…Nである統合識別器12を設定するために、組み合わせる識別器1,2…Nの個数を示す。
識別器構成変数情報は、被写体を識別する際に用いる、検出したい被写体のうち、被写体識別条件に適合するものに共通する特徴(以下、共通特徴と記す)を示す。識別器1,2…Nとしてテンプレートマッチングを用いる場合には、被写体テンプレートとなり、学習判別型識別器を用いる場合には、被写体学習データのサイズ、あるいは学習する特徴量となる。
識別器種別は、識別器1,2…Nの種類を示す。具体例としては、テンプレートマッチングによる判別や、サポートベクターマシンによる学習判別手法(以下、SVMと記す)が挙げられる。(サポートベクターマシンについては、文献 "数理化学 No.444, JUNE 2000 赤穂ら" に詳しいので、詳細はこの文献を参照)ここで、指定する識別器1,2…Nは、学習による手法と、マッチングによる手法のように別種の組み合わせであってもよい。
また、識別器1,2…Nは、識別系の認識手法であれば、どのような手法を用いてもよく、これらの識別器1,2…Nを設定する処理手順もしくはプログラム等の情報は、識別器設定情報記憶部26に記憶されているものとする。
識別結果統合関数情報は、複数の識別器1,2…Nをどのように組み合わせるかの方法を示す。例えば、識別器利用個数が2つの場合、この2つの識別器の組み合わせ方を指定する。具体的には、2つの識別器の検出結果の論理積を取り、どちらの識別器からも検出された被写体のみを最終的な識別結果とする等の方法を指定する。
識別器利用個数が3つの場合には、2つの識別器の検出結果の論理和から、別の識別器の検出結果を引き、前の2つの識別器のどちらかから検出された結果なのか、後の1つの識別器で検出された結果を除いた被写体を、最終的な検出結果とする等、3つの識別器の組み合わせ方を指定する。ここで、組み合わせ方は、各識別器からの結果の論理積、論理和、排他的論理和、論理差(否定)、あるいは論理演算以外の関数であってもよい。また、各識別器からの結果をそのまま用いてもよいし、識別器ごとの結果を重み付けして用いてもよい。
なお、識別器利用個数の値をN個とした場合には、識別器構成変数情報、識別器種別もN個となり、識別結果統合関数は、N個の識別器1,2…Nを組み合わせる関数となる。
また、初期設定として、識別器種別をSVM、識別器利用個数を1個、識別器構成変数情報を被写体の正面向きのものを検出できることを特徴とするテーブルをあらかじめ用意しておき、被写体識別条件により、テーブルの各項目を自動的に書き換えるものとしてもよい。
図5は、画像データ蓄積部21に蓄積される画像群及び被写体情報を、被写体を人物の顔とした例で一例を示した図である。
画像データ蓄積部21には、蓄積画像群として、人物の画像をその被写体情報とともに蓄積しているものとする。また、識別器種別が被写体とそれ以外の2クラスを学習する学習型判別手法である場合など、被写体以外のデータが必要な場合には、人物以外の風景等の画像を蓄積していてもよい。さらに、検出対象となる人物の顔領域については、その被写体情報を合わせて記録しているものとする。
なお、ここで記録されている人物の被写体情報は、画像中での顔領域全体の位置、目、鼻、口等の部位の位置情報や端点等の特徴点(以下、部位特徴と記す)の位置情報等を併せて記録する。目や口の開閉状態、眼鏡の有無やマスク等一部遮蔽の有無、前髪の有無や形状、顔の輪郭情報等を併せて記録されていてもよい。また、これらは、画像そのものであってもよいし、画像から抽出される特徴量であってもよい。
さらに、識別器種別、識別器構成変数情報により、1つの共通特徴で対応できる変動の量等をテーブル化して、蓄積しておいてもよい。
また、ここでは人物を例に説明したが、対象とする被写体は、その姿勢変動による変化が連続的なものであれば、顔に限るものでなくてもよい。
図6は、識別器仕様テーブル24の識別器構成変数情報を、被写体を人物の顔とした例で一例を示した図である。設定する識別器1,2…Nは、その仕様を識別器仕様テーブル24に記述された仕様を満たすものであるとする。
識別器仕様テーブル24に記憶される識別器構成変数情報は、あらかじめデフォルトで用意されていてもよいし、デフォルトで用意されているものをユーザからの被写体識別条件入力により修正設定してもよいし、被写体識別条件入力によりはじめて設定するものであってもよい。
識別器構成変数情報は、あらかじめ設定されているか、識別器仕様テーブル作成部23により自動的に設定されるか、ユーザにより設定可能なものとする。例えば、検出したい被写体の各々により変化しない特徴、あるいは変化の少ない特徴を利用してもよい。例えば、被写体が人物である場合には、個人によらない部位特徴(濃淡情報や形状、配置)を利用する。
しかし、被写体によっては、形状は同じでも撮影角度によって、見え方が一定の形状のものと、撮影角度により、大きく見え方が異なるものとがある。
前者の場合、全領域のもつ特徴をそのまま使用できるが、後者の場合には、見え方が連続的に変化する特徴を利用する。検出角度を拡大する際には、こうした連続的に変化する特徴を段階的に使用する。
3次元物体が回転運動をするとき、回転軸が画像平面に平行な場合には、回転により見え方の変化量が少ない領域が存在する。よって、画像そのものを特徴として使用する場合には、画像中の被写体の領域のうち、撮影角度により、輝度値の変動が小さい領域を使用することができる。具体的には、検出対象が顔画像である場合は、左半面の目や口の形の形状は、多少の右回転変動による変動が小さい。また、頬の輝度値を基準としたときの目や口、鼻の輝度値の大きさも変化が少ない。
よって、画像データ蓄積部21の顔画像において、目と口の位置で正規化した顔の左半面領域を切り出して、大きさや輝度分布による正規化を行い、作成したテンプレートは前記特徴となる。したがって、例えば正面向きから右30度までの顔を検出したい場合には、被写体の人物の目、鼻、口を含む左反面をその特徴としてもよい。
こうした顔領域の大きさは、大きさの正規化の基準となり得る特徴点、例えば、目、眉、鼻、口の端点(以下、大きさを正規化することのできる特徴点と記述)等の存在を調べ、共通する特徴点のみが含まれるように、決定してもよいし、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておき、テーブルを参照することによって決定してもよい。
ここで、被写体識別条件に示された範囲の変動の全てに対応できる共通特徴が存在しない場合には、当該範囲を複数に分割する。例えば、当該範囲を2分し、各範囲内で共通特徴を探すことを共通特徴が見つかるまで繰り返したり、当該範囲が正面向き(0度)をはさんで、−15度〜30度という場合には、0度で分割し、−15度〜0度、0度〜30度というように分割する。
なお、ここでは、顔の部位の端点を利用した特徴点を例に説明したが、顔の領域輝度の空間周波数により領域を決定するなど、別の共通する特徴を抽出し、利用してもよい。
図7は、識別器仕様テーブル作成部23での識別器構成変数情報決定の流れを説明する流れ線図で、ここで、学習判別の識別器、SVMを用いて識別器を構成するために、学習データとして、共通の特徴に画像中の顔領域の輝度値を利用する場合を例に説明する。
はじめに、識別器仕様テーブル24から識別器1,2…Nを構成する流れについて説明する。識別器仕様テーブル24は、予め図4のように被写体の一般的なものを検出できる識別器1,2…Nを設定するための値が初期値として入っているものとする(図8)。この初期値は可変とし、例えば、図9のオーダーによる初期設定のように変更可能なものとする。識別器設定時には、初期値、あるいは、例えば、図9のオーダーによる初期設定を読み込む。ここでは、図9のオーダーによる初期設定を元に設定する手順を説明する。
まず、識別器仕様テーブル24より、顔の向きが正面から右30度(Y軸を回転軸とし、X軸方向の回転−30度)であること、使用する識別器がSVMであること、共通特徴として部位特徴点を利用して切り出された顔領域画像を用いること、という条件を読み込む(ステップ1)。
次に読み込まれたテーブルのうち、対応すべき変動に着目し、使用する特徴の個数を決定する(ステップ2)。ここでは、0度から−30度までの顔を検出対象とする。画像データ蓄積部21の0度顔画像と−30度顔画像を比較することにより、その部位特徴点の個数から識別器利用個数、すなわち共通特徴の個数を定めてもよいし(例えば、図6に示す各画像の部位特徴点の場合には、共通特徴の個数は4個となる。)、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておき、これを利用して共通特徴の個数を決定してもよい。
さらに、識別器仕様テーブル24を参照し、識別器をいくつ組み合わせるかの設定により、必要な特徴の個数を決定する(ステップ3)。ここでは、2つのSVMによる識別器を組み合わせ、どちらからも検出されたもののみ、顔として検出(2つの結果の論理積をとる)するために、2つの識別器を構成する2つの特徴が必要となる。その2つは、識別器仕様テーブルでの規定に従い決定するものとする。
例えば、図11に示す学習データサイズ1の画像から異なる2つのサイズで切り出した、学習データサイズ2および3の画像ように、2つの学習データセットを用意することにより、1つ目は、大きさの部位特徴点の数が最大に含まれる領域の大きさ、すなわち学習データサイズ2を用い、2つ目は、その特徴点の個数が1つ少なくなるように幅を狭めた領域の大きさ、すなわち学習データサイズ3を用いる、等とする。
このように決定されたサイズで、画像データ蓄積部21にある画像から学習データセットを設定する(ステップ4)。そして、統合識別器設定部25が、この学習データセットをそれぞれの識別器1,2…Nに学習をさせることにより、所望の識別器を構成する。
さらに、識別器種別、識別器構成変数情報毎に、対応できる変動許容範囲を記憶した識別器利用個数決定テーブル(図10)を画像データ蓄積部21内に有し、識別器種別、識別器構成変数が決定された場合、被写体識別条件にあわせて構成する識別器の個数が決定されるものであってもよい。
例えば、図10に示す識別器利用個数決定テーブルにおいて、識別器種別がSVM、識別器構成変数情報が学習データセットサイズとして構成する識別器の個数を決定する場合、識別器、および学習データセットのアスペクト比に応じて、1種類の学習データセットで対応できる顔向きの角度範囲を前記決定テーブルを参照して判断し、検出したい角度範囲が1種類の学習データセットで対応し得るものであるかで、構成する識別器の個数を決定する。
図12は、統合識別器設定部25で複数の識別器の組み合わせ方を設定する手法についての説明図で、以下図12によりその設定手法を説明する。
被写体識別条件として、正面向き(0度)を含まない範囲の角度の顔を検出したい場合(例:図中「e」)において、「e」が検出可能な共通特徴で構成した1つの識別器のみでは、正面向き(0度)を含む「a」の範囲が検出されてしまう。これは、図6の方法により共通特徴を抽出した場合、右10度では、例えば図11における学習データサイズ2、右30度では同じく学習データサイズ3を用いるため、双方の共通特徴は、学習データサイズ1にも含まれるものとなってしまい、学習データサイズ1により検出できる顔も検出されるからである。
そこで、正面向きから回転角度の絶対値が大きい向きの顔までを検出できる識別器(図中「a」)の検出結果から、正面向きから回転角度の絶対値が小さい向きの顔を検出できる識別器(図中「c」)の検出結果を引き算する(論理差、否定を求める)関数を設定する。
このとき、「a」を検出する識別器として、正面向きから右30度までの共通特徴により識別器を構成してもよいし、右10度から右30度までの共通特徴により識別器を構成してもよい。
具体的には、正面向きから右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて正面向きの顔から切り出した顔領域の画像(図11の学習データサイズ3に切り出した正面向きの顔に相当)とを学習データセットとして学習させた識別器を構成すればよい。
また、右10度から右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて10度右横向きの顔から切り出した顔領域の画像(図11の学習データサイズ3に切り出した10度右横向きの顔に相当)とを学習データセットとして学習させた識別器を構成すればよい。
また、被写体識別条件として、正面向き(0度)を含む範囲の角度の顔を検出したい場合(例:図中「f」)において、全範囲をカバーできる共通特徴が見つからない場合には、正面向きから角度が負の角度の顔を検出できる識別器(図中「c」)の検出結果と、正面向きから正の角度の顔を検出できる識別器(図中「d」)の検出結果を足し算する(論理和を求める)関数を設定する。(例えば、図11の学習データサイズ3の画像と、学習データサイズ3の左右逆向き画像からの共通特徴を得ることはできない。)
このような場合には、「c」を検出する識別器として、正面向きから右10度までの共通特徴により構成した識別器と、「d」を検出する識別器として、正面向きから左15度までの共通特徴により構成した識別器の2つの識別器から検出された領域全てを顔とする統合識別器12を設定すればよい。
このような場合には、「c」を検出する識別器として、正面向きから右10度までの共通特徴により構成した識別器と、「d」を検出する識別器として、正面向きから左15度までの共通特徴により構成した識別器の2つの識別器から検出された領域全てを顔とする統合識別器12を設定すればよい。
さらに、横向きの変動のみならず、縦向の変動に対応させるためには、同様に複数の識別器を組み合わせ、最終的には、横向きと縦向きの変動を含む顔を検出できる統合識別器12を設定することができる。
図13は、本発明の実施の形態による被写体識別器設定装置20の統合識別器設定部25における識別器の設定の例を示す図である。
顔画像を検出したい場合、例えば、学習により顔と非顔を分離する識別面を生成することにより、判別を行う識別器を設定するために、識別面を生成する方法としてサポートベクターマシーンによる手法を用いることを一例に説明する。
学習データとして、識別器仕様テーブル24により決定された特徴をもつ顔画像あるいはその被写体情報を学習顔データとし、それ以外の領域から学習非顔データを作成することによって識別面を生成するとし、顔と判別する特徴量の閾値として、0以上の正の値を定義し、特徴量がこの閾値以上であれば顔と判定し、閾値未満であれば非顔と判定する。この閾値を大きくすると顔の検出率は下がる(再現率の低下)が、誤検出は減る(適合率の向上)。逆に小さくすれば、再現率が向上し、適合率は低下する。よって、この閾値は、既定値としてもよいし、装置の使用目的により可変としてユーザが調整できるようにしても良い。
また、ここで用いる学習データは、画像データ蓄積部21に予め蓄積されている画像を用いる。この画像データは後で追加できるようなものであってもよい。このとき、画像データ蓄積部21に蓄積された画像データから顔検出を行い、検出された領域の正誤を判断した上で、それぞれの領域を再学習データとして使用し、より検出精度の高い識別器を構成する手段を複数回講じてもよい。
また、学習には画像そのものを用いても良いし、画像から得られる特徴量を利用してもよい。例えば、学習データとして、学習画像の輝度値を平均0、分散1になるように正規化した後、その正規化した輝度値をベクトル化したものを用いても良いし、学習画像の顔データと非顔データの集合に対して主成分分析を行い、固有値と固有ベクトルとを求めた後に、固有値の大きい方からその固有値に対応する固有ベクトルを複数選択し、その選択された固有値に対応する固有ベクトルを特徴として学習データとしてもよい。
また、ここではSVMを用いた識別における説明を行ったが、識別器については、別の学習型の識別器を用いてもよいし、テンプレートマッチング等、別の識別手段を用いてもよい。テンプレートマッチングの場合には、学習データセットの代わりに、顔のテンプレートを1枚以上作成する。また、顔以外のテンプレートは作成しない。
図14は、被写体識別器設定装置20の統合識別器設定部25において、SVMを例として識別器を設定する時の学習の流れを示す流れ線図である。具体的なステップは以下の通りである。
ステップ1:画像データ蓄積部21に蓄積された顔と非顔の画像を学習データとした学習により識別器を構成し、
ステップ2:再学習により識別精度を向上させる場合はステップ3へ、それ以外は終了し、
ステップ3:ステップ1で構成した識別器により、画像データ蓄積部21に蓄積された画像から顔領域を検出し、
ステップ4:ステップ3で検出された領域を画像データ蓄積部21に蓄積された被写体情報に基づき顔と非顔とに正しく分類し、分類された画像を学習データとし、ステップ1へ戻る。
ステップ2:再学習により識別精度を向上させる場合はステップ3へ、それ以外は終了し、
ステップ3:ステップ1で構成した識別器により、画像データ蓄積部21に蓄積された画像から顔領域を検出し、
ステップ4:ステップ3で検出された領域を画像データ蓄積部21に蓄積された被写体情報に基づき顔と非顔とに正しく分類し、分類された画像を学習データとし、ステップ1へ戻る。
ここで、再学習を行う回数は規定していても良いし、可変としてもよい。また、再学習に使う画像は、予め画像データ蓄積部21にある画像を学習用と再学習用に分けておき、学習用とは異なる画像を使用するようにしてもよいし、同一の画像を複数回利用してもよい。
図15は、被写体識別器設定装置20の統合識別器設定部25における統合識別器12の設定処理の流れを示す流れ線図である。具体的なステップは以下の通りである。
ステップ1:識別器で検出された領域の、他の識別器における判別関数の値を算出する、
ステップ2:各識別器の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ3:識別結果統合関数の値が所定の閾値以上であればステップ4へ、閾値未満であればステップ5へ、
ステップ4:当該検出領域は顔であると判定し、検出結果とする、
ステップ5:当該検出領域は非顔であると判定し、検出結果とする。
ステップ2:各識別器の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ3:識別結果統合関数の値が所定の閾値以上であればステップ4へ、閾値未満であればステップ5へ、
ステップ4:当該検出領域は顔であると判定し、検出結果とする、
ステップ5:当該検出領域は非顔であると判定し、検出結果とする。
ここで、ステップ2で求める識別結果統合関数f(x,y) は、2つの識別器により得られた識別関数の値x、yから最終的な判別値を求める関数であり、例えば、
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1(T1:所定の閾値)
であれば、顔領域と判定する。
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1(T1:所定の閾値)
であれば、顔領域と判定する。
ここで、a、bはx、yの重み付けを決定する係数とし、識別結果統合関数情報としてユーザにより調整できる値であるとする。この重み付けは、各識別器の判別関数の値の、最終的な判別値に対する寄与率であるとする。この値は、入力された被写体識別条件に基づいて識別結果統合関数情報として自動的に設定してもよいし、初期設定として、あるいはデフォルトで自動設定して後刻ユーザ設定により可変なものとしてもよい。
また、顔領域と判定するための条件としては、
f(x,y)≧T1かつx≧T2、y≧T3(T1、T2、T3:それぞれ所定の閾値)というように、x、yに対する条件を追加してもよい。さらに、識別結果統合関数 f(x,y) は、2次以上の関数であってもよい。
f(x,y)≧T1かつx≧T2、y≧T3(T1、T2、T3:それぞれ所定の閾値)というように、x、yに対する条件を追加してもよい。さらに、識別結果統合関数 f(x,y) は、2次以上の関数であってもよい。
図16〜図19は、被写体識別器設定装置20において識別器を組み合わせる際に、2つの識別器を用いた場合の組み合わせ方の例を示し、図4の識別結果統合関数をさらに詳しく説明した分布図で、この図16〜図19の分布図は、学習テンプレートサイズが異なる2つの識別器による顔検出の結果である。
学習テンプレートサイズが異なる2つの識別器では、共通特徴の違いのため、再学習の過程において、再学習画像データとして追加される画像データが異なる結果となる。そこで、再学習用画像データとして、顔を含まないデータを用意することにより、再学習における非顔の学習データセットが異なる2つの識別器を構成することができる。
このような学習データセットから構成した2つの識別器では、顔領域はどちらの識別器からも検出されるが、顔領域として誤って検出される非顔領域は識別器ごとに異なるものとなる。このような性質を利用することにより、検出したい顔の角度範囲を制御するだけでなく、以下で説明するように、誤検出を低減させることもできるようになる。
図16において、白色菱形記号は検出したい顔領域を示し、白色菱形記号及び黒色正方形記号は識別器1により検出された誤検出領域、白色菱形記号及び濃灰色三角形記号は識別器2により検出された誤検出領域であるとする。このように検出された領域のうち、できるだけ多くの白色菱形記号を識別結果とできるような検出結果統合処理を行う。
各識別器では、顔として検出する判別関数の最低値(以後閾値)は予め設定しておくものとする。設定の方法としては、例えば、テスト画像を用いて作成した顔と非顔のサンプルの分布を調べ、KL展開した主軸に投影させる等の手段により、2種類を分類するために適当な閾値をデフォルトの値として定めておく。例えば、図16中のx軸およびy軸をデフォルトの値としてもよい。ただし、識別結果統合関数情報としてユーザ可変のものとしてもよい。
ここで、使用する識別器を、識別器1、識別器2とし、2つの識別器での判別関数からの値をそれぞれ、x、yとする。このとき、識別器1で検出された領域と識別器2で検出された領域において、ある一定の条件を満たした領域のみを検出領域として出力する。例えば、論理積をとり、図17に示したように、yの閾値1以上、かつxの閾値2以上である領域のみを顔としてもよい。
また、図18に示したように、識別器1で検出された領域の分布する主軸(KL展開した主軸:直線1)と識別器2で検出された領域の分布する主軸(KL展開した主軸:直線2)が、それぞれの閾値で直交する直線を定義し、直線3、直線4とした場合、直線3と直線4の線分の組み合わせにより、識別境界(識別結果統合関数 f(x,y) )を設定(図18の点線)しても良いし、これらの線分を漸近線とする曲線により識別境界(図18の破線)としてもよい。
さらには、図18で示したような識別境界(識別結果統合関数 f(x,y) )を設定し、一定値以上を示した領域を検出領域としてもよい。
以上の処理によって、図19で示したような単一の識別器使用時には検出漏れをしていた顔領域を検出したり、誤検出していた領域を削減したりすることができるようになる。
図20〜図22は、被写体識別器設定装置20における2つの識別器の組み合わせにより、検出を行った場合の結果の一例を示した図である。
2つの識別器の組み合わせにより、顔の向きを限定して検出を行う場合の例をSVMによる学習判別型の識別器を用いて示す。
2つの識別器は、識別器構成変数が異なると、遮蔽や顔の向きに対するロバスト性が異なる。学習データに用いる共通特徴としての大きさが大きいと遮蔽に強く、小さいと弱い。また、学習データが大きいと顔の向きに対する許容度が狭く、小さいと広い。
よって、遮蔽の少ない正面向きの顔のみを検出したい場合、正面向きの顔のみ検出できる識別器(図20)と顔が横向き30度まで検出可能な識別器(図21)とを組み合わせ、論理積をとることにより実現できる(図22)。
同様に、遮蔽があっても横向きであっても取りたい場合には、同様の識別器で論理和を取ればよい(図22)。また、識別器を3つ以上組み合わせることにより、前髪や人物同士の重なり合い等で遮蔽された顔を検出するか否か等、さらに細かい検出条件も設定可能である。
図23は、本発明の実施の形態による被写体識別装置10の利用の一例を、検出したい被写体が顔であった場合において示す図である。
入力画像は、カメラつき携帯電話やデジタルカメラ等の撮像機器で自由に撮影した画像でもよいし、駅貼広告や掲示板の注目度を調べるために対象のすぐ近くに設置したカメラからの画像等でもよい。
ユーザが年賀状に使用する画像を選ぶ等、多くの画像中から正面向きで写っている画像のみを抽出したい場合には、検出条件として顔の向き0度を、ポスターなどを眺めている人物の場合には、カメラとポスターの位置関係から検出したい顔のおおよその角度を設定する。
また、識別器仕様テーブル24は、被写体識別条件を入力することによって、自動生成されてもよいし、ユーザによってあらかじめ設定できるようにしてもよい(画面1)。ただし、これらの値はデフォルトの値があらかじめ設定されており、ユーザは必要に応じて任意に前記仕様テーブルの要素を指定できるものであってもよい。
以上により、検出条件を満たす人物に関する検出結果は、そのサムネイル画像を、図23中の画面2、3のようにリスト表示してユーザに提示する。
注目度を自動測定する場合は、すべての顔画像を検出した上で、正面向きの顔のみを抽出し、人数をカウントしたり、
注目度(%)=掲示板に対して正面向きの顔÷撮影された全人物の顔×100
のように定義式を定めて、注目度を算出しても良い。
注目度(%)=掲示板に対して正面向きの顔÷撮影された全人物の顔×100
のように定義式を定めて、注目度を算出しても良い。
さらに、この結果を見て検出条件を調整できるように、数枚の画像の検出結果をサンプルとして示し、ユーザが確認後全ての画像の処理を行えるものとしてもよい。例えば、識別器調整のために、再度画面1の設定を行えるよう、予め1枚以上の画像を指定し、その画像における検出結果を確認することによって、識別器の調整を行っていき、最終決定された識別器を用いて全画像の処理を行うようにしてもよい。(画面4)
さらに、本実施の形態では、ローカルなコンピュータに本発明による被写体識別器設定方法及び被写体識別方法を記憶させた装置を使用する例で説明したが、この装置はネットワークを介して使用することも可能である。例えば、ユーザが入力画像及び被写体検出条件を、ネットワークを介して被写体識別器設定方法及び被写体識別方法を記憶させたサーバに送ることで、目的の画像とそれ以外の画像とに分類した結果を返すシステムを構築することも可能である。
さらに、本実施の形態では、ローカルなコンピュータに本発明による被写体識別器設定方法及び被写体識別方法を記憶させた装置を使用する例で説明したが、この装置はネットワークを介して使用することも可能である。例えば、ユーザが入力画像及び被写体検出条件を、ネットワークを介して被写体識別器設定方法及び被写体識別方法を記憶させたサーバに送ることで、目的の画像とそれ以外の画像とに分類した結果を返すシステムを構築することも可能である。
図24は、本発明の実施の形態による被写体識別装置10の利用の一例を、検出したい被写体が指向性のある情報を表す文字であった場合において示す図である。
街中を車で走行すると、走行車へ向けた電柱看板や立て看板がある。これら看板から得られる情報を、カーナビゲーション等を用いて運転者に提示する例を用いて示す。ここで、入力画像として、車載カメラ等で撮影した画像を用いる。
このとき、左側通行の道路において、カメラを車の進行方向に平行に設置する場合には、走行車へ向けられた看板は、遠方では正面向きに近い角度から読むことができるが、看板に近づくにつれ、右斜め前から撮影することとなる。また、こうした情報は、看板の真横で得られても既に意味をなさない情報となっているため、運転者は撮影角度が正面向きから右45度程度(45度は一例。ここでの角度は走行速度やユーザの必要性により変わる)で撮影されているときに、この情報を必要とする。
その場合、被写体識別条件として、正面向きから右45度の角度で撮影された文字、という条件を与えることにより、該角度範囲で存在する文字のみを認識する識別器を構成できる。こうした識別器を用いて、認識された情報を運転者に向け提示することも可能である。
また、こうした識別器はあらかじめカーナビゲーションに搭載し、使用することも可能である。
以上では、顔画像や文字画像を例に実施の形態を説明してきたが、本発明は、これらに限定されるものではない。本発明は、同様の共通特徴を選択することにより、回転その他の変動によって連続的に見え方が変化する対象に対し、適用可能である。
上述した、本発明の装置や方法は、コンピュータのプログラムで構成したり、あるいはフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいはコンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。
また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。
なお、上記実施の形態で、図7、図14及び図15に示した流れ線図において、図2で示したように、各ステップに相当する処理の動作の主体及び対象は、図1と図3に示した装置のブロックの構成説明図における各ブロックの構成に相当する処理手段、設定手段、蓄積手段及びテーブルを用いるハードウェア資源を利用している。
1〜N…識別器
10…被写体識別装置
11…画像入力部
12…統合識別器
13…識別結果統合部
20…被写体識別器設定装置
21…画像データ蓄積部
22…被写体識別条件入力部
23…識別器仕様テーブル作成部
24…識別器仕様テーブル
25…統合識別器設定部
26…識別器設定情報記憶部
10…被写体識別装置
11…画像入力部
12…統合識別器
13…識別結果統合部
20…被写体識別器設定装置
21…画像データ蓄積部
22…被写体識別条件入力部
23…識別器仕様テーブル作成部
24…識別器仕様テーブル
25…統合識別器設定部
26…識別器設定情報記憶部
Claims (10)
- 識別対象となる画像を入力する画像入力手段と、
入力された前記画像の中から所定の被写体を識別する複数の識別手段と、
前記複数の識別手段の識別結果を統合する識別結果統合手段とを有する画像中から所定の被写体を識別する被写体識別装置における、
前記複数の識別手段と前記識別結果統合手段とを設定する被写体識別器設定装置であって、
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手段と、
前記複数の識別手段および前記識別結果統合手段を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、
目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手段と、
前記被写体識別条件と前記画像データ蓄積手段に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、
前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手段に蓄積された画像に基づき前記複数の識別手段と前記識別結果統合手段とを設定する統合識別器設定手段と
を有することを特徴とする被写体識別器設定装置。 - 前記識別器仕様テーブルは、
前記複数の識別手段の利用個数を示す識別器利用個数と、
利用する前記複数の識別手段のそれぞれの種類を表す識別器種別と、
利用する前記複数の識別手段のそれぞれを構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別手段を統合する関数の情報である識別結果統合関数情報と
を記憶することを特徴とする請求項1に記載の被写体識別器設定装置。 - 前記識別器種別に基づき前記複数の識別手段のそれぞれに対して設定される当該識別手段が実行すべき処理手順の情報を記憶する識別器設定情報記憶手段
をさらに有することを特徴とする請求項2に記載の被写体識別器設定装置。 - 識別対象となる画像を入力する画像入力手順と、
入力された前記画像の中から所定の被写体を識別する複数の識別手順と、
前記複数の識別手順の識別結果を統合する識別結果統合手順とを有する画像中から所定の被写体を識別する被写体識別方法における、
前記複数の識別手順と前記識別結果統合手順とを設定する被写体識別器設定方法であって、
前記所定の被写体を含む複数の画像と、該画像における被写体の位置及び被写状態を示す被写体情報とを蓄積する画像データ蓄積手順と、
前記複数の識別手順および前記識別結果統合手順を設定するための識別器仕様情報を記憶する識別器仕様テーブルと、
目的とする被写体をどのように検出するかの条件である被写体識別条件を入力する被写体識別条件入力手順と、
前記被写体識別条件と前記画像データ蓄積手順に蓄積された被写体情報に基づき前記識別器仕様テーブルを作成する識別器仕様テーブル作成手順と、
前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手順に蓄積された画像に基づき前記複数の識別手順と前記識別結果統合手順とを設定する統合識別器設定手順と
を有することを特徴とする被写体識別器設定方法。 - 前記識別器仕様テーブルは、
前記複数の識別手順の利用個数を示す識別器利用個数と、
利用する前記複数の識別手順のそれぞれの種類を表す識別器種別と、
利用する前記複数の識別手順のそれぞれを構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手順において用いられる、利用する前記複数の識別手順を統合する関数の情報である識別結果統合関数情報と
を記憶することを特徴とする請求項4に記載の被写体識別器設定方法。 - 前記識別器種別に基づき前記複数の識別手順のそれぞれに対して設定される当該識別手順が実行すべき処理手順の情報を記憶する識別器設定情報記憶手順
をさらに有することを特徴とする請求項5に記載の被写体識別器設定方法。 - 請求項4ないし6のいずれかに記載の被写体識別器設定方法における手順を、コンピュータに実行させるためのプログラムとした
ことを特徴とする被写体識別器設定プログラム。 - 画像中から所定の被写体を識別する被写体識別装置において、
識別対象となる画像を入力する画像入力手段と、
入力された前記画像の中から所定の被写体を識別する複数の識別手段と、
前記複数の識別手段の識別結果を統合する識別結果統合手段とを有し、
前記複数の識別手段と前記識別結果統合手段は、
請求項1ないし3のいずれかに記載の被写体識別器設定装置によって設定されることを特徴とする被写体識別装置。 - 画像中から所定の被写体を識別する被写体識別方法において、
識別対象となる画像を入力する画像入力手順と、
入力された前記画像の中から所定の被写体を識別する複数の識別手順と、
前記複数の識別手順の識別結果を統合する識別結果統合手順とを有し、
前記複数の識別手順と前記識別結果統合手順は、
請求項4ないし6のいずれかに記載の被写体識別器設定方法によって設定されることを特徴とする被写体識別方法。 - 請求項9に記載の被写体識別方法における手順を、コンピュータに実行させるためのプログラムとした
ことを特徴とする被写体識別プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004197539A JP2006018706A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004197539A JP2006018706A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006018706A true JP2006018706A (ja) | 2006-01-19 |
Family
ID=35792904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004197539A Pending JP2006018706A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006018706A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288911A (ja) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | 撮像装置、顔領域検出プログラム、及び、顔領域検出方法 |
JP2011060221A (ja) * | 2009-09-14 | 2011-03-24 | Sumitomo Electric Ind Ltd | 識別器生成方法、コンピュータプログラム、識別器生成装置及び所定物体検出装置 |
WO2011092848A1 (ja) * | 2010-01-29 | 2011-08-04 | 株式会社日立製作所 | オブジェクト検出装置および顔検出装置 |
JP2011169845A (ja) * | 2010-02-22 | 2011-09-01 | Kokusai Kogyo Co Ltd | 測量データの分類方法、測量データの分類装置及び測量データを記録した記録媒体 |
WO2012005066A1 (ja) * | 2010-07-07 | 2012-01-12 | 日本電気株式会社 | 画像処理学習装置、画像処理学習方法、および画像処理学習プログラム |
WO2017061155A1 (ja) * | 2015-10-08 | 2017-04-13 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
JP2017083990A (ja) * | 2015-10-26 | 2017-05-18 | トヨタ自動車株式会社 | 情報提供装置および情報提供方法 |
JP2018181081A (ja) * | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | 画像認識エンジン連携装置およびプログラム |
-
2004
- 2004-07-05 JP JP2004197539A patent/JP2006018706A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288911A (ja) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | 撮像装置、顔領域検出プログラム、及び、顔領域検出方法 |
US8077216B2 (en) | 2007-05-18 | 2011-12-13 | Casio Computer Co., Ltd. | Image pickup apparatus with a human face detecting function, method and program product for detecting a human face |
JP2011060221A (ja) * | 2009-09-14 | 2011-03-24 | Sumitomo Electric Ind Ltd | 識別器生成方法、コンピュータプログラム、識別器生成装置及び所定物体検出装置 |
JPWO2011092848A1 (ja) * | 2010-01-29 | 2013-05-30 | 株式会社日立製作所 | オブジェクト検出装置および顔検出装置 |
WO2011092848A1 (ja) * | 2010-01-29 | 2011-08-04 | 株式会社日立製作所 | オブジェクト検出装置および顔検出装置 |
JP2011169845A (ja) * | 2010-02-22 | 2011-09-01 | Kokusai Kogyo Co Ltd | 測量データの分類方法、測量データの分類装置及び測量データを記録した記録媒体 |
WO2012005066A1 (ja) * | 2010-07-07 | 2012-01-12 | 日本電気株式会社 | 画像処理学習装置、画像処理学習方法、および画像処理学習プログラム |
US8971613B2 (en) | 2010-07-07 | 2015-03-03 | Nec Corporation | Image processing learning device, image processing learning method, and image processing learning program |
JP5772825B2 (ja) * | 2010-07-07 | 2015-09-02 | 日本電気株式会社 | 画像処理学習装置、画像処理学習方法、および画像処理学習プログラム |
WO2017061155A1 (ja) * | 2015-10-08 | 2017-04-13 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
JPWO2017061155A1 (ja) * | 2015-10-08 | 2018-08-02 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
US20180342078A1 (en) * | 2015-10-08 | 2018-11-29 | Sony Corporation | Information processing device, information processing method, and information processing system |
JP2017083990A (ja) * | 2015-10-26 | 2017-05-18 | トヨタ自動車株式会社 | 情報提供装置および情報提供方法 |
JP2018181081A (ja) * | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | 画像認識エンジン連携装置およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Seshadri et al. | Driver cell phone usage detection on strategic highway research program (SHRP2) face view videos | |
US7920725B2 (en) | Apparatus, method, and program for discriminating subjects | |
CN109697416B (zh) | 一种视频数据处理方法和相关装置 | |
Kafai et al. | Dynamic Bayesian networks for vehicle classification in video | |
US7218759B1 (en) | Face detection in digital images | |
US8787629B2 (en) | Image processing based on line-of-sight of a person | |
EP2345980A2 (en) | Classifier learning image production program, method, and system | |
CN106295638A (zh) | 证件图像倾斜校正方法和装置 | |
US20070058856A1 (en) | Character recoginition in video data | |
US8620036B2 (en) | System and method for controlling image quality | |
JP2007213378A (ja) | 特定表情顔検出方法、撮像制御方法および装置並びにプログラム | |
JP2009230751A (ja) | 年令推定装置 | |
CN103294989A (zh) | 生物数据采集过程中区别真实脸部和二维脸部图像的方法 | |
CN111598065B (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
JP2006065447A (ja) | 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム | |
JP2019016298A (ja) | 画像処理装置、画像処理方法 | |
Chen et al. | Classification of moving objects in atmospherically degraded video | |
JP2006018706A (ja) | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム | |
JP2006018707A (ja) | 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
CN113780222B (zh) | 一种人脸活体检测方法、装置、电子设备和可读存储介质 | |
JP4510562B2 (ja) | 円中心位置検出方法および装置並びにプログラム | |
Gurkan et al. | Evaluation of human and machine face detection using a novel distinctive human appearance dataset | |
JP2005084979A (ja) | 顔認証システムおよび方法並びにプログラム |