JP3659914B2 - 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 - Google Patents
物体認識装置、物体を認識する方法、プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP3659914B2 JP3659914B2 JP2001333151A JP2001333151A JP3659914B2 JP 3659914 B2 JP3659914 B2 JP 3659914B2 JP 2001333151 A JP2001333151 A JP 2001333151A JP 2001333151 A JP2001333151 A JP 2001333151A JP 3659914 B2 JP3659914 B2 JP 3659914B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- feature
- far
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、特定のカテゴリに属する物体を認識する装置および方法に関し、より詳細には、異なる属性を用いて物体を表現する複数の画像を用いて物体を認識する装置および方法に関する。
【0002】
【従来の技術】
異なる属性を用いて対象物を表現した複数の画像を用いて対象物の認識を行う従来技術として、特開平8−287216号公報「顔面内部位認識方法」に開示される技術が知られている。この従来技術では、遠赤外光(波長8〜10μmの光)画像と可視光画像(異なる属性を用いて対象物を表現した複数の画像)とから、顔面内の部位(例えば、口)が認識される。遠赤外線画像は、対象物から放射される遠赤外光の強度を表現する。対象物から放射される遠赤外光の強度は、対象物の温度と対応付けることができるので、遠赤外光画像から特定の温度(例えば、人間の皮膚の通常の温度である約36℃)の領域を抽出することができる。
【0003】
温度画像を用いただけでは、対象物の周囲に人間と同じ温度の物体(室内の電機製品など)が存在する場合に、正確に人間を検出することが困難になるので、可視光の画像における肌色の領域を参照して信頼性の高い検出を実現していた。
【0004】
【発明が解決しようとする課題】
上記公報に記載の従来技術では、認識対象となる部位の位置を特定するために、遠赤外線画像から抽出された皮膚温度領域と、可視光画像から抽出された肌色の領域とが対応付けられる。このような対応付けを行うためには、▲1▼遠赤外線画像からの皮膚温度領域(約36℃の温度の領域)の抽出と、可視光画像からの肌色の領域の抽出とを正確に行う必要があり、▲2▼遠赤外線画像における画素と可視光画像における画素との対応付けを予め行う必要がある。
【0005】
遠赤外線画像における画素と可視光画像における画素との対応付けを予め行うためには、可視光カメラと遠赤外光カメラの光軸を正確に合わせることが必要であり、撮像システムの構築や物体認識のための初期設定が複雑になるという課題がある。
【0006】
遠赤外線画像から皮膚温度領域を正確に抽出するためには、時間経過とともに変化する遠赤外線カメラの光学系や回路、素子等の温度の影響をキャンセルするためのキャリブレーションを頻繁に行う必要がある。あるいは、これらの光学系や回路、素子等の温度の影響をなくすために、遠赤外線カメラの全体を一定の温度に保つ(例えば、冷却する)ことが必要になる。その結果、遠赤外線カメラを含む認識システムの初期設定および保守が複雑であり、コスト高になるという課題がある。
【0007】
また、皮膚温度は日射や気温の影響によって大きく変化する。特に屋外においては日射や気温等の条件の変化に応じて、皮膚温度は標準的な36℃付近の温度からかけ離れやすく、1日のうち、時間的にも大きく変化する。このように、皮膚温度が変化すると、遠赤外線画像から皮膚温度領域を正確に抽出することは困難になる。様々に変化する環境条件下で皮膚温度領域を正確に抽出するためには、その個々の条件に応じた抽出アルゴリズムを用意しなければならず、認識システムの初期設定が容易でないという課題がある。
【0008】
可視光画像においても、屋外のように日射や車のヘッドライト等の人工照明の影響を受けやすい環境下では、カメラのダイナミックレンジの制限や光源のスペクトル分布が不確定であることに起因して、対象物の色を常に正確に検出することは困難になる。様々に変化する環境条件下で肌色領域を正確に抽出するためには、その個々の条件に応じた抽出アルゴリズムを用意しなければならず、認識システムの初期設定が容易でないという課題がある。
【0009】
さらに、遠赤外線画像からの皮膚温度領域の抽出と、可視光画像からの肌色の領域の抽出とは、いずれも、個々の対象物の属性に特化した処理である。このような処理は、認識の対象が変わった場合にはうまく動作しない。例えば、この従来技術を動物の認識に適用するためには、領域抽出のアルゴリズムを変更しなければならない。個々の認識対象ごとに抽出アルゴリズムを用意しなければならないので、認識システムの初期設定が容易でない。
【0010】
このように、従来技術によれば、遠赤外線画像の領域と可視光画像の領域とを対応付ける処理が必要であることに起因して、対象物の認識を行うための初期設定が容易でなく、環境条件の影響を受けやすいという課題がある。
【0011】
本発明は、このような課題に鑑みてなされたものであり、認識の信頼度が高く、かつ、初期設定が容易で環境条件の影響を受けにくい物体認識装置、物体を認識する方法、プログラムおよび記録媒体を提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明の物体認識装置は、第1の対象物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力する入力部と、該入力部が前記第1の画像データ組を入力して、入力された前記第1の画像データ組の前記第1の画像データと前記第2の画像データにおける予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求める特徴量ベクトル算出部と、前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が特定のカテゴリに属するか否かを判定する判定部とを備えており、これにより、上記目的が達成される。
【0013】
前記第1の画像データは、前記第1の対象物から放射または反射される可視光線の光の強度によって前記第1の対象物を表現し、前記第2の画像データは、前記第1の対象物から放射または反射される遠赤外線の光の強度よって前記第1の対象物を表現してもよい。
【0014】
前記入力部は、それぞれが複数の画像データからなる第2の画像データ組および第3の画像データ組をさらに前記特徴量ベクトル算出部に入力し、前記第2の画像データ組および第3の画像データ組のそれぞれは、前記特定のカテゴリに属する第2の対象物の可視光画像の画像データである第3の画像データと、前記第2の対象物の遠赤外光画像の画像データである第4の画像データとを含み、前記特徴量ベクトル算出部は、前記入力された第2の画像データ組および第3の画像データ組のそれぞれについて、前記第3の画像データおよび第4の画像データにおける予め定められた少なくとも1つの位置に、前記画像フィルタと同じ選択性を有する少なくとも1つの画像フィルタを適用することによって前記第3の画像データおよび前記第4の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、前記特徴量空間における特徴量ベクトルをさらに求め、前記第2の画像データ組についての前記特徴量空間における少なくとも1つの特徴量ベクトルと、前記第3の画像データ組についての前記特徴量空間における少なくとも1つの特徴量ベクトルとを識別するように、前記識別パラメータを求める学習部をさらに備えていてもよい。
【0015】
前記第1の対象物は人間であってもよい。
【0016】
前記学習部は、前記特徴量空間よりも多い次元数を有する仮の特徴量空間において、前記第2の画像データ組についての特徴量ベクトルと、前記第3の画像データ組についての特徴量ベクトルとを識別するための平面の法線の向きに基づいて前記仮の特徴量空間から少なくとも1つの次元を削除することによって、前記特徴量空間を定義してもよい。
【0017】
前記識別パラメータは、前記特徴量空間における識別面を表し、前記判定部は、前記第1の特徴量ベクトルが、前記識別面に対してどちらの側に位置するかに基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定してもよい。
【0018】
前記判定部は、前記第1の特徴量ベクトルと、前記識別面との距離が所定の閾値以上である場合に、前記第1の対象物が前記特定のカテゴリに属すると判定してもよい。
【0019】
前記入力部は、前記第1の対象物の可視光画像の画像データである第5の画像データと、前記第1の対象物対象物の遠赤外光画像の画像データである第6の画像データとをさらに前記特徴量ベクトル算出部に入力するようになっており、前記第5の画像データおよび前記第6の画像データは、前記第1の画像データと前記第2の画像データとが撮影された第1の時刻から所定の時間の後に撮影されたものであってもよい。
【0020】
前記第1の画像データが第1の場所から撮影され、前記第2の画像データが前記第1の場所とは異なる第2の場所から撮影されたものであってもよい。
【0021】
前記入力部は、前記第1の対象物の可視光画像の画像データである第5の画像データと、前記第1の対象物の遠赤外光画像の画像データである第6の画像データとをさらに前記特徴量ベクトル算出部に入力するようになっており、前記第5の画像データおよび前記第6の画像データは、前記第1の画像データと前記第2の画像データとが撮影される第1の場所とは異なる第2の場所から撮影されたものであってもよい。
【0022】
本発明の物体を認識する方法は、(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップとを包含し、これにより、上記目的が達成される。
【0023】
本発明のプログラムは、コンピュータに物体認識処理を実行させるためのプログラムであって、前記物体認識処理は、(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップとを包含し、これにより、上記目的が達成される。
【0024】
本発明の記録媒体は、コンピュータに物体認識処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記物体認識処理は、(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップとを包含し、これにより、上記目的が達成される。
【0025】
以下、作用を説明する。
【0026】
本発明によれば、認識のために入力される画像組(第1の画像組)は、対象物(第1の対象物)を第1の属性を用いて表現する第1の画像と、その対象物を第1の属性とは異なる第2の属性を用いて表現する第2の画像とを含む。対象物が特定のカテゴリに属するか否かの判定は、第1の属性と第2の属性とに基づいて行われるので、対象物の認識の信頼度が高くなる。さらに、その所定の数の画像の予め定められた位置に予め定められた画像フィルタを適用することによって得られるフィルタ出力値を成分として有する特徴量空間内の特徴量ベクトルが求められ、画像組は、この特徴量ベクトルによって表される。この処理には、第1の画像の領域と第2の画像の領域とを対応付ける処理は必要でないので、対象物の認識を行うための初期設定が容易であり、認識結果は、環境条件の影響を受けにくい。
【0027】
【発明の実施の形態】
はじめに、図1〜図5を参照して、本発明の原理を説明する。
【0028】
図1は、本発明の物体認識方法の全体の処理手順を示す。本発明の物体認識方法は、学習処理1001(ステップS1001a〜S1001c)と、認識処理1002(ステップS1002a〜S1002c)とを含む。以下、本発明の物体認識方法が人間を認識するために適用される場合を例に挙げて本発明の物体認識方法の手順を説明する。図1に示される物体認識方法は、図6を参照して後述する物体認識装置1によって実行される。
【0029】
ステップS1001a:学習用の画像組が物体認識装置1に入力される。以下の説明において、画像組とは、特に断らない限り、同一の対象物の可視光画像と遠赤外光画像との2枚の画像からなる組をいう。学習用の画像組は、人間(「人間」というカテゴリに属する第2の対象物)を表現する少なくとも1つの画像組(第2の画像組)と、その第2の画像組以外の少なくとも1つの画像組(人間以外の対象物を表現する画像組、第3の画像組)とを含む。ステップS1001aにおいて、複数の学習用の画像組が入力される。
【0030】
ステップS1001b:ステップS1001aで入力された複数の学習用の画像組のそれぞれについて、特徴量ベクトルが求められる。1つの画像組からの特徴量ベクトルの算出は、図2Aおよび図2Bを参照して後述される。この特徴量ベクトルは、特徴量空間における1つの点とみなすことができる。
【0031】
ステップS1001c:少なくとも1つの第2の画像組についての特徴量ベクトルと、少なくとも1つの第3の画像組についての特徴量ベクトルとを識別(分離)するように、特徴量空間における識別面が求められる。識別面の算出は、図4を参照して後述される。
【0032】
ステップS1002a:認識用の画像組(第1の画像組)が物体認識装置1に入力される。
【0033】
ステップS1002b:ステップS1002aで入力された認識用の画像組のそれぞれについて、特徴量ベクトルが求められる。
【0034】
ステップS1002c:認識用の画像組の対象物(第1の対象物)が、「人間」という特定のカテゴリに属するか否かが判定される。この判定は、ステップS1001cで求められた識別面と、ステップS1002bで求められた特徴量ベクトルとの位置関係に基づいてなされる。
【0035】
学習処理1001は、学習用の画像組から、識別面(識別パラメータ)を求める処理である。この識別面は、認識処理1002において、認識用の画像組によって表現される対象物が特定のカテゴリに属するか否かの判定のための判定基準として用いられる。
【0036】
図2Aは、ステップS1001a(図1)において入力される画像組610〜613(少なくとも1つの第2の画像組)を示す。画像組610〜613のそれぞれは、人間の可視光画像と、その同じ人間の遠赤外光画像との2枚の画像を含む。図2Aに示される例では、画像組610は、可視光画像601(第3の画像)と、遠赤外光画像602(第4の画像)とを含む。なお、可視光画像とは、その画像の対象物から放射または反射される可視光線(波長380〜800nmの波長帯域の光線)の強度を表す画像であり、遠赤外光画像とは、その画像の対象物から放射また反射される遠赤外光線(波長8〜10μmの波長帯域の光線)の強度を表す画像である。可視光画像は、対象物から放射または反射される可視光線の強度(輝度)という対象物の属性を用いて対象物を表現し、遠赤外光画像は、対象物から放射または反射される遠赤外光線の強度という対象物の属性を用いて対象物を表現しているということができる。
【0037】
画像601の対象物621と、画像602の対象物622とは、同一の対象物(同一の人物)である。画像組611に含まれる可視光画像と遠赤外光画像との対象物も同一の対象物である。しかし、画像組610〜画像組611の間で、対象物が同一である必要はない。画像組610〜画像組611の間で、対象物は同一のカテゴリ(この例では、「人間」というカテゴリ)に属してさえいればよい。
【0038】
図2Aには、ステップS1001a(図1)において入力される第2の画像組が4組示されている(画像組610〜613)が、ステップS1001a(図1)において入力される第2の画像組の数はこれに限定されない。
【0039】
図2Bは、ステップS1001a(図1)において入力される画像組660〜663(少なくとも1つの第3の画像組)を示す。画像組660〜663のそれぞれは、人間以外の対象物の可視光画像と、その同じ対象物の遠赤外光画像との2枚の画像を含む。図2Bに示される例では、画像組660は、画像651(可視光画像)と、画像652(遠赤外光画像)とを含む。画像651は、画像601(図2A)と同一のサイズを有し、画像652は、画像602(図2A)と同一のサイズを有しているものとする。
【0040】
再び図2Aを参照して、ステップS1001b(図1)において、画像組についての特徴量ベクトルを求める処理を説明する。
【0041】
画像601の2つの位置631および632のそれぞれに、2種類の画像フィルタ(画像フィルタAおよび画像フィルタB、図示せず)を適用すること仮定する。画像フィルタAと画像フィルタBとは、例えば、異なる特性を有する画像フィルタである。画像フィルタの具体例は、図3を参照して後述される。図2Aにおいて、位置631および632が矩形で示されている。この矩形は、画像フィルタAおよび画像フィルタBのサイズを表している。ここでは、画像フィルタAおよび画像フィルタBは等しいサイズを有するものとする。
【0042】
1つの画像フィルタを画像601の1つの位置に適用することによって1つのスカラー値(フィルタ出力値)が生成される。図2Aに示される例では、画像601の2つの位置631および632のそれぞれに画像フィルタAおよびBを適用することによって、4つのフィルタ出力値(10、3、11および5)が生成されている。具体的には、位置631および位置632に画像フィルタAを適用することによって、フィルタ出力値「10」および「3」がそれぞれ生成され、位置631および位置632に画像フィルタBを適用することによってフィルタ出力値「11」および「5」がそれぞれ生成される。
【0043】
同様に、画像602の2つの位置633および634のそれぞれに、上述した画像フィルタAおよびBを適用することによって、4つのフィルタ出力値(1、7、11および4)が生成されている。
【0044】
画像601についての4つのフィルタ出力値(10、3、11および5)と、画像602についての4つのフィルタ出力値(1、7、11および4)とを結合することによって、画像組610についての特徴量ベクトル(10,3,11,5,1,7,11,4)が算出される。このようにして、フィルタ出力値を用いて可視光画像の情報と遠赤外光画像の情報とが統合される。
【0045】
図2Aに示される画像組611〜613についても同様にして特徴量ベクトルが算出される。特徴量ベクトルは、フィルタ出力値を成分として有する。この特徴量ベクトルは、8次元の特徴量空間における1つの点とみなすことができる。
【0046】
図2Bに示される画像組660についても、同様にして特徴量ベクトルが算出される。具体的には、画像651の2つの位置681および682のそれぞれに上述した画像フィルタAおよび画像フィルタBを適用することによって、4つのフィルタ出力値(8、9、0および2)が生成される。画像652の2つの位置683および684のそれぞれに上述した画像フィルタAおよび画像フィルタBを適用することによって、4つのフィルタ出力値(9、12、10および4)が生成される。画像651についての4つのフィルタ出力値(8、9、0および2)と、画像652についての4つのフィルタ出力値(9、12、10および4)とを結合することによって、画像組660についての特徴量ベクトル(8,9,0,2,9,12,10,4)が算出される。図2Bに示される画像組661〜663についても同様にして特徴量ベクトルが算出される。
【0047】
適用される画像フィルタと、その画像フィルタが適用される位置とは予め定められている。本発明の1つの実施形態において、適用される画像フィルタと、その画像フィルタが適用される位置とは、図12を参照して後述する特徴量次元の削除処理を通じて決定される。図2Aおよび図2Bに示される例では、画像組610(図2A)に適用される画像フィルタAおよびBと同一の画像フィルタが、画像組660(図2B)にも適用される。位置631および632の画像601に対する位置関係は、それぞれ、位置681および682の画像651に対する位置関係に等しい。なお、1つの画像中の画像フィルタが適用される位置の数は、2に限定されない。また、1つの画像中の1つの位置に適用される画像フィルタの数も、2に限定されない。
【0048】
このように、ステップ1001b(図1)において、複数の画像組(図2Aに示される画像組610〜613および図2Bに示される画像組660〜663)のそれぞれについて、2枚の画像のうち予め定められた少なくとも1つの位置に予め定められた少なくとも1つの画像フィルタを適用することによって得られる少なくとも1つのフィルタ出力値を成分とする、特徴量空間における特徴量ベクトルが求められる。
【0049】
図3は、画像351に画像フィルタ354を適用する例を示す。図3に示される例では、画像351の位置353に、画像フィルタ354が適用される。図3には、画像351の部分352の拡大図が示されている。この拡大図において、部分352の輪郭を表す矩形の内部の値は、画像351に含まれる画素の値を示す。
【0050】
図3に示される例では、画像フィルタ354は、3×3のサイズを有している。画像フィルタ354を表す矩形の内部の値は、9個のフィルタ係数を示す。画像351の位置353に画像フィルタ354を適用することによって得られるフィルタ出力値は、画像フィルタ354のフィルタ係数と、そのフィルタ係数に対応する画素の値との積を画像フィルタ354の9個のフィルタ係数について合計した値である。この例では、フィルタ出力値は、765である。フィルタ出力値を求める演算をフィルタ演算という。フィルタ演算により、画像の局所的な特性情報がフィルタ出力値として抽出される。
【0051】
図4は、ステップ1001b(図1)において各画像組について求められた特徴量ベクトルを特徴量空間701にプロットした状態を示す。ただし、図4に示される例では、説明のために、特徴量空間701は2次元の空間(すなわち、平面)として表されている。特徴量空間701は、2個の次元、すなわち、特徴量次元1と特徴量次元2とによって定義されている。特徴量ベクトルは、特徴量空間701における1つの点として表される。図4において、○印のそれぞれは、人間を表現する画像組(第2の画像組)についての特徴量ベクトルを表し、×印のそれぞれは、人間以外の対象物を表現する画像組(第3の画像組)についての特徴量ベクトルを表す。以下、人間を表現する画像組についての特徴量ベクトルを単に、「人間を表現する特徴量ベクトル」と呼び、人間以外の対象物を表現する画像組についての特徴量ベクトルを単に、「人間以外の対象物を表現する特徴量ベクトル」と呼ぶことがある。
【0052】
識別直線702(識別平面)は、ステップ1001c(図1)において、○印によって表される特徴量ベクトルと、×印によって表される特徴量ベクトルとを識別するように定められる。図4に示される例では、○印によって表される特徴量ベクトルはすべて識別直線702の上側(矢印703の側、第1の側)にあり、×印によって表される特徴量ベクトルはすべて識別直線702の下側(矢印704の側、第2の側)にある。識別直線702は、例えば、サポートベクトルマシンの手法を用いて定められ得る。サポートベクトルマシンの手法については、例えば、文献:V.Vapnic、”The Nature of Statistical Learning Theory”、 Springer Verlag、1995年を参照されたい。識別直線702は、あるいは、線形パーセプトロンの学習または判別分析法等の手法を用いて定められてもよい。学習アルゴリズムには、統計的パラメータ推定法およびニューラルネットワーク等のノンパラメトリックな学習アルゴリズムが採用され得る。
【0053】
図4に示される例では、2次元の特徴量空間701において、識別直線702が、人間を表現する画像組(第2の画像組)についての特徴量ベクトルと、人間以外の対象物を表現する画像組(第3の画像組)についての特徴量ベクトルとを識別(分離)している。人間を表現する画像組(第2の画像組)についての特徴量ベクトルと、人間以外の対象物を表現する画像組(第3の画像組)についての特徴量ベクトルとが、n次元(n≧2)の特徴量空間において表される場合には、それらの特徴量ベクトルは、識別平面によって識別される。n次元の特徴量空間が、次元x1、次元x2、...、および次元xnによって定義される場合には、その識別平面は、(数1)によって表される。
【0054】
【数1】
a1x1+a2x2+...+anxn+d=0
以下、本明細書中で「平面」とは、n次元(n≧2)の特徴量空間において(数1)の関係を満たす点(x1,x2,...,xn)の集合をいう。n=2の場合には、(数1)は直線を表すが、この直線は上記の「平面」の定義に含まれる。
【0055】
図5は、ステップ1002a(図1)において入力される認識用の画像組(第1の画像組)510の例を示す。画像組510は、対象物521を表現する可視光画像501と、対象物522を表現する遠赤外光画像502とを含む。対象物521と、対象物522とは、同一の対象物(第1の対象物)である。
【0056】
ステップS1002b(図1)において、画像組510についての特徴量空間における特徴量ベクトル(第1の特徴量ベクトル)が算出される。図5に示される例では、画像組510についての特徴量ベクトルは、(9,4,12,6,1,6,14,3)として算出されている。この特徴量ベクトルの算出は、図2Aを参照して上述した画像組610についての特徴量ベクトルの算出と同様にして行われる。すなわち、ステップS1002bにおいて、画像組510について、2個の画像(画像501および502)のうち、予め定められた少なくとも1つの位置に予め定められた少なくとも1つの画像フィルタ(画像フィルタAおよびB)を適用することによって得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における特徴量ベクトル(第1の特徴量ベクトル)が求められる。
【0057】
図4に示される●印は、特徴量空間701にプロットされた第1の特徴量ベクトルを示す。ただし、図4には、説明のために、第1の特徴量ベクトルを8次元の特徴量ベクトルとしてではなく、2次元の特徴量ベクトル(2,10)として表している。
【0058】
ステップS1002c(図1)では、●印により示される第1の特徴量ベクトルと、識別直線702との特徴量空間701における位置関係に基づいて、画像組510(図5)が表現する対象物が人間であるか否かが判定される。図4に示される例では、●印により示される特徴量ベクトルは、識別直線702の上側(矢印703の側)にある。識別直線702の矢印703の側は、人間を表現する画像組についての特徴量ベクトルが位置する側であるので、画像組510(図5)が表現する対象物が人間であると判定される。
【0059】
このようにして、図1に示される本発明の方法によれば、画像組510(図5)が表現する第1の対象物(画像組510の可視光画像501と遠赤外光画像502との共通の対象物)が人間であることが認識される。第1の対象物が「人間」というカテゴリに属するか否かの判定は、対象物が反射または放射する可視光線の強度(第1の属性)と、その対象物が反射または放射する遠赤外光線の強度(第2の属性)とに基づいて行われるので、対象物の認識の信頼度が高くなる。さらに、その画像501および画像502の予め定められた位置に予め定められた画像フィルタを適用することによって得られるフィルタ出力値を成分として有する特徴量空間内の特徴量ベクトルが求められ、画像組510は、この特徴量ベクトルによって代表される。この処理には、画像501の領域と第2の画像502の領域とを対応付ける処理は必要でないので、第1の対象物の認識を行うための初期設定が容易になり、かつ、認識の結果が環境条件の影響を受けにくくなる。
【0060】
以下、図面を参照して本発明の実施の形態を説明する。同一の構成要素には同一の参照番号を付し、重複した記載を省略する場合がある。
【0061】
図6は、本発明の実施の形態の物体認識装置1の構成を示す。
【0062】
物体認識装置1は、遠赤外光カメラ100と、可視光カメラ110と、学習用画像データ(学習用の画像組)を格納する記憶装置120と、画像に画像フィルタを作用させるフィルタ処理部125と、学習処理部130と、遠赤外光カメラ100および可視光カメラ110によって取得された画像組が表す対象物が特定のカテゴリに属するか否か(例えば、その対象物が人間か否か)を判定する認識処理部140と、その判定の際に判定基準として用いられる識別パラメータを記憶する識別パラメータ記憶部150と、ワークメモリ160と、認識結果を表示する表示部170とを含む。物体認識装置1の各構成要素は、内部バスを介して相互に接続されてもよいし、ネットワークを介して相互に接続されてもよい。そのようなネットワークは、無線ネットワーク、有線ネットワーク、電話回線ネットワーク等の任意のネットワークを含み得る。そのようなネットワークは、インターネットを含んでもよい。
【0063】
遠赤外光カメラ100は、遠赤外光画像を撮影し、可視光カメラ110は、可視光画像を撮影する。本発明の実施の形態では、可視光画像として、輝度画像が用いられた。
【0064】
物体認識装置1は、例えば、屋外における侵入者の監視システムや、自動車等の移動体に搭載される歩行者の検出システムや、移動ロボットに搭載される視覚システムに適用され得る。
【0065】
上述したように、物体認識装置1は、全体として、図1に示される学習処理および認識処理を行う。
【0066】
可視光カメラ110と、遠赤外光カメラ100とは、ステップS1001a(図1)における学習用の画像組の入力処理と、ステップS1002a(図1)における、認識用の画像組(第1の画像組)の入力処理とを行う。可視光カメラ110と、遠赤外光カメラ100とは、学習用の画像組と認識用の画像組とを物体認識装置1に入力する入力部190として機能する。もちろん、学習用の画像組を物体認識装置に入力する可視光カメラおよび遠赤外光カメラと、認識用の画像組を物体認識装置に入力する可視光カメラおよび遠赤外光カメラとがそれぞれ別に設けられていてもよい。
【0067】
学習用の画像組は、人間の対象物を表現する画像組(第2の画像組)と、人間以外の対象物を表現する画像組(第3の画像組)とに区分されて、学習用画像データとしていったん記憶装置120に蓄積される。記憶装置120は、例えば、ハードディスクであり得る。あるいは、記憶装置120は、任意のメモリであり得る。
【0068】
フィルタ処理部125は、ステップS1001b(図1)およびステップS1002b(図1)における特徴ベクトルの算出を行う。フィルタ処理部125(特徴量ベクトル算出部)は、例えば、デジタルシグナルプロセッサであり得る。
【0069】
学習処理部130(学習部)は、ステップS1001c(図1)における、識別面を求める処理を行う。
【0070】
認識処理部140(判定部)は、ステップS1002c(図1)における、認識用の画像組の対象物が特定のカテゴリ「人間」に属するか否かを判定する処理を行う。
【0071】
表示部170は、認識処理部140における認識の結果を表示する。表示部170としては、任意の表示デバイスが用いられ得る。表示部170は、省略されてもよい。
【0072】
図7Aは、遠赤外光カメラ100と可視光カメラ110との配置の例を示す。図7Aに示される例では、遠赤外光カメラ100と、可視光カメラ110とが並列に配置されている。
【0073】
図7Bは、遠赤外光カメラ100と可視光カメラ110との配置の他の例を示す。図7Bに示される例では、コールドミラー802で反射した可視光カメラ110の光軸が遠赤外光カメラ100の光軸にそろうように、遠赤外光カメラ100と可視光カメラ110とが配置されている。コールドミラーとは、可視光を反射し、遠赤外光を透過する性質を有するミラーである。
【0074】
遠赤外光カメラ100の機能と可視光カメラ110の機能とが1つのカメラによって実現されてもよい。
【0075】
図7Cは、遠赤外光カメラ100と可視光カメラ110とに代えて、その両方の機能を併せ持つ可視光・遠赤外光カメラ210が用いられる例を示す。可視光・遠赤外光カメラ210は、エリアセンサを用いて遠赤外光カメラの機能と可視光カメラの機能とを実現している。
【0076】
図8Aは、可視光カメラ110によって撮影された、人間の対象物を表現する可視光画像803の例を示す。
【0077】
図8Bは、遠赤外光カメラ100によって撮影された、人間の対象物を表現する遠赤外光画像804の例を示す。遠赤外光画像804は、図8Aに示される可視光画像803と同一の対象物をほぼ同一の時刻に撮影することによって得られる。
【0078】
図9Aは、可視光カメラ110によって撮影された、人間以外の対象物(木)を表現する可視光画像805の例を示す。
【0079】
図9Bは、遠赤外光カメラ100によって撮影された、人間以外の対象物(木)を表現する遠赤外光画像806の例を示す。遠赤外光画像806は、図9Aに示される可視光画像805と同一の対象物をほぼ同一の時刻に撮影することによって得られる。
【0080】
図8A、図8B、図9Aおよび図9Bに示される可視光画像および遠赤外光画像は、画像組(学習用の画像組または認識用の画像組)を構成する。可視光画像および遠赤外光画像に同一の対象物が写ることが必要であるが、可視光画像と遠赤外光画像との間で画素単位で正確に位置合わせが行われている必要はない。例えば、可視光画像803(図8A)において、対象物は画像の中心から左方向にずれており、遠赤外光画像804(図8B)において、対象物は画像の中心から右方向にずれているが、本発明の学習処理および認識処理において可視光画像803の領域と遠赤外光画像804の領域とを対応付ける処理は必要でないので、このようなずれは問題にならない。従って、遠赤外光カメラ100および可視光カメラ110の位置合わせが容易であり、物体認識装置1の初期設定が容易である。ただし、学習用の画像組と認識用の画像組とに含まれるすべての可視光画像のスケール比(縦横比)が同じであり、対象物が同様の位置に写っていることが必要である。これは、可視光カメラ110により撮影される可視光画像から所定の領域を切り出すことによって実現されてもよい。学習用の画像組と認識用の画像組とに含まれる赤外光画像についても同様である。
【0081】
図10Aは、フィルタ処理部125(図6)において用いられる画像フィルタの特性を模式的に示す。図10Aに示される画像フィルタは、画像中の特定の位置に適用された場合に、その特定の位置における特定方向(垂直方向)の特定の空間周波数を有するエッジ(図10Aに示される楕円形の横幅(短軸)の範囲内で画素の値が順次変化するようなエッジ)を選択的に検出する。
【0082】
図10Bは、水平方向のエッジを選択的に検出する画像フィルタの特性を模式的に示す。
【0083】
図10Cは、左下から右上に延びるエッジを選択的に検出する画像フィルタの特性を模式的に示す。
【0084】
図10Dは、右下から左上に延びるエッジを選択的に検出する画像フィルタの特性を模式的に示す。
【0085】
図10A〜図10Dに示される画像フィルタは、方位選択性(特定の方向のエッジのみを検出する)と位置選択性(特定の位置のエッジを検出する)と空間周波数選択性(特定の空間周波数で画素の値が変化するエッジを検出する)とを有するフィルタである。ここで、空間周波数とは、画像中の位置変化に対する画素の値(例えば、輝度)の変化の度合いをいう。このような特性を有する画像フィルタの例として、Gaborフィルタが挙げられる。方位選択性と位置選択性と空間周波数選択性とを有する画像フィルタを複数種類(選択性が異なる複数の画像フィルタ)用いることによって、異なる画像フィルタが同一のエッジに関する情報を重複して検出するという無駄を低減することができ、必要な画像フィルタの数を減らすことができる。これにより、学習処理1001および認識処理1002を実行するために必要な計算量を減らすことができる。その結果、属性が異なる複数の画像(可視光画像と遠赤外光画像)を入力することに起因する計算量の増加を最小限にとどめることができる。
【0086】
1つのフィルタ出力値は、画像の特定の位置における特定方向の特定の空間周波数を有するエッジの情報を表す。フィルタ出力値を成分とする特徴量ベクトルによって1つの画像組を表すことは、可視光画像と遠赤外光画像との共通の対象物の形状をエッジの集まりとして簡易的に表現することに相当する。
【0087】
図11A〜図11Dのそれぞれは、Gaborフィルタのフィルタ係数の例を示す。図11A〜図11Dに示される例において、各格子点は、13画素×13画素のサイズを有するGaborフィルタの1つのフィルタ係数に対応し、そのフィルタ係数の値(実数部)は、各格子点の高さとして示されている。図11A〜図11Dは、図10A〜図10Dに示される画像フィルタにそれぞれ対応する。
【0088】
以下、物体認識装置1が実行する学習処理と認識処理との詳細な処理手順を説明する。
【0089】
<学習処理>
図12は、物体認識装置1が実行する学習処理の詳細な手順を示す。ステップS91は、ステップS1001aおよびステップS1001b(図1)に対応しており、ステップS92〜ステップS97は、ステップS1001c(図1)に対応している。
【0090】
ステップS91:人間を表現する画像組(第2の画像組)と、人間以外の対象物を表現する画像組(第3の画像組)とをそれぞれ複数用意し、各画像組について特徴量ベクトルを求める。ステップS91において求められた特徴量ベクトルの集合を特徴量データFと呼ぶ。ステップS91のさらに詳細な処理手順は、図15および図16を参照して後述される。以下の説明では、ステップS91において、各画像組から1032次元の特徴量ベクトルが算出されることを仮定する(本発明はこれに限定されない)。この特徴量ベクトルは、1032個の特徴量次元、特徴量次元x1、特徴量次元x2、特徴量次元x3、...、特徴量次元x1032によって定義される空間内の1つの点として表される。
【0091】
ステップS92:特徴量次元のうち、学習に用いる特徴量次元が指定される。最初は全ての次元を指定する。この例では、1回目は、特徴量次元x1、特徴量次元x2、特徴量次元x3、...、特徴量次元x1032の全てが、学習に用いる特徴量次元として指定される。2回目以降は、後述するステップS94で除かれた残りの次元が学習に用いる特徴量次元として指定される。ステップS92〜ステップS96の処理を繰り返すことによって、特徴量空間の次元数が減っていく。これを、「特徴量次元の削除処理」と呼ぶ。
【0092】
ステップS93:指定された特徴量次元を用いてより低次元の特徴量空間を定義し(ただし、最初は1032次元の特徴量空間が定義される)、特徴量データFに含まれる各特徴量ベクトルが、このより低次元の特徴量空間における特徴量ベクトルとして表される。このより低次元の特徴量空間における特徴量ベクトルは、特徴量データFに含まれる1032次元の特徴量ベクトルの成分のうち、ステップS92で指定された特徴量次元に対応する成分のみから構成される、より低次元の特徴量ベクトルとして表される。特徴量ベクトルの1つの成分は、画像における1つの位置における1つのフィルタ出力値に対応しているので、このより低次元の特徴量ベクトルも、画像組における2つの画像の少なくとも1つの予め定められた位置に予め定められた1つの画像フィルタを適用することによって得られる少なくとも1つのフィルタ出力値を成分として有する。
【0093】
次に、このより低次元の特徴量空間において、人間を表現する画像組についての特徴量ベクトルと、人間以外の対象物を表現する画像組についての特徴量ベクトルとを識別(分離)する識別平面が、仮識別平面として決定される。
【0094】
識別平面に対する特徴量ベクトルの位置は、特徴量ベクトルの各特徴量次元に対応する成分を識別平面の各特徴量次元に対応する係数で重み付けして足し合わせた値(重み付け和)により表現できる。例えば、3次元空間における識別平面がx+2y+3z=0と表され、特徴量ベクトルが(x,y,z)=(−1,0,4)の場合を考える。特徴量ベクトル(−1、0、4)の各成分を識別平面の各特徴量次元の係数(1、2、3)で重み付けして足し合わせると、1×(−1)+2×0+3×4=11という値が得られる。この値は、特徴量ベクトル(−1,0,4)と、識別平面との距離を表す。この値の符号および大小で識別平面に対する特徴量ベクトルの位置関係を表すことができる。
【0095】
特徴量空間内に2つのカテゴリに属する点が分布する場合に、カテゴリを分けるような識別平面(仮識別平面)を決定する手法としては、上述したように、サポートベクトルマシンの手法等が用いられ得る。
【0096】
このような手法を用いて、特徴量空間内において人間を表現する画像組についての特徴量ベクトルと、人間以外の対象物を表現する画像組についての特徴量ベクトルとを分離する識別平面が仮識別平面として決定される。分離は必ずしも完全である必要はなく、一部の特徴量ベクトル(例えば、人間を表現する画像組についての特徴量ベクトル)が識別平面を越えて(人間を表現しない画像組についての特徴量ベクトルの側に)分布する配置(誤識別)になっていてもかまわない。ただし、誤識別の特徴量ベクトルの個数は少ない方がよい。誤識別の特徴量ベクトルが少なくなるように識別平面の決定手法が複数の手法のうちから選択されてもよい。
【0097】
ステップS94:ステップS92で指定された特徴量次元に対応する座標軸のうち、ステップS93で決定した仮識別平面とのなす角度の絶対値が小さい座標軸から順にd個の座標軸が、ステップS92で指定した特徴量次元(学習に用いる特徴量次元)から除かれる。dの値は予め定められた1以上の整数とする。
【0098】
例えば、3次元の特徴量空間(座標軸をxyzとする)において、仮識別平面がx+2y+3z=0と表される場合、この仮識別平面とx、y、z軸のなす角度の絶対値は、x軸、y軸、z軸の順に大きくなる。この場合、d=1とするとx軸に対応する特徴量次元が、学習に用いる特徴量次元から除かれる。各座標軸と識別平面とのなす角度に注目することに代えて、各座標軸と識別平面の法線とのなす角度δに注目し、δの絶対値の大きいものからd個の座標軸を除いても同様の結果が得られる。識別平面の法線の向きは、仮識別平面を表す式の係数を成分として有する法線ベクトルによって表される。例えば、仮識別平面x+2y+3z=0の法線の向きは、法線ベクトル(1,2,3)によって表される。
【0099】
再び図4を参照して、特徴量次元を学習に用いる特徴量次元から除くことの意味を説明する。
【0100】
図4において、特徴量次元1に対応する軸(横軸)が識別直線(識別平面)702となす角度は、特徴量次元2に対応する軸(縦軸)が識別直線(識別平面)702となす角度よりも小さい。このことは、特徴量次元1は、人間を表現する画像組についての特徴量ベクトルと人間以外の対象物を表現する画像組についての特徴量ベクトルとを識別(分離)するために、特徴量次元2よりも重要でないことを意味する。すなわち、特徴量次元2の値(フィルタ出力値)が、対象物が人間であるか否かの判定に大きく影響する。図4に示される例では、ステップS94(図12)において、特徴量次元1と特徴量次元2とのうち、特徴量次元1が削除される。
【0101】
1つの特徴量次元の値は、画像組に含まれる1つの可視光画像または遠赤外光画像の1つの位置における1つのフィルタ出力値に対応する。このように、識別直線(または識別平面)を求めることによって、可視光画像から得た複数のフィルタ出力と遠赤外光画像から得た複数のフィルタ出力とのうち、どの特徴量次元(フィルタ出力)が重要であるかを決定することができる。ステップS94(図12)は、重要でない特徴量次元(識別に寄与しない特徴量次元)を学習に用いる特徴量次元から削除することを意味する。図12に戻って学習処理の詳細な処理手順の説明を続ける。
【0102】
ステップS95:d個の座標軸を減らした特徴量空間を設定し、新たに設定した特徴量空間において識別性能の評価を行う。この評価は、ステップS94でd個の座標軸(特徴量次元)を除くことによって新たに定義されたより低次元の特徴量空間において、特徴量データFに含まれる、人間を表現する特徴量ベクトルと人間以外の対象物を表現する特徴量ベクトルとをどれだけ正確に識別(分離)できるかを調べることによって行われる。ステップS95のさらに詳細な処理手順は、図17を参照して後述される。
【0103】
ステップS96:識別性能が基準値を満たすか否かが判定される。ステップS96の判定の結果が「No」である場合には、処理はステップS97に進む。ステップS96の判定の結果が「Yes」である場合には、処理はステップS92に戻る(さらに特徴量次元の削除が行われる)。
【0104】
ステップS97:ステップS93で用いられた特徴量次元が選択次元として指定される。また、ステップS93で求めた仮識別平面が、識別平面として指定される。この識別平面は、後に行われる認識処理において判定基準として使用される。識別平面は、ステップS97で選択次元として指定された特徴量次元によって定義される空間(特徴量空間)における平面である。なお、ステップS96において、初回は無条件にステップS92に移行するようにしてもよい。
【0105】
このように、ステップS92〜ステップS96において、学習処理部130(図6)は、認識処理において用いられる特徴量空間よりも多い次元数を有する仮の特徴量空間において、人間を表現する画像組(第2の画像組)についての特徴量ベクトルと、人間以外の対象物を表現する画像組(第3の画像組)についての特徴量ベクトルとを識別するための平面(仮識別平面)の法線の向きに基づいて、仮の特徴量空間から少なくとも1つの次元を削除することによって、認識処理において用いられる特徴量空間を定義する。
【0106】
ステップS97において、1032個の特徴量次元、特徴量次元x1、特徴量次元x2、特徴量次元x3、...、特徴量次元x1032のうち、m個(mは1032以下の整数)の特徴量次元、特徴量次元xa1、特徴量次元xa2、特徴量次元xa3、...、特徴量次元xam(添え字a1、a2、a3、...amは、1以上1032以下の整数)が選択次元として指定されることを仮定すると、選択次元のリスト(特徴量次元xa1,特徴量次元xa2,特徴量次元xa3,...,特徴量次元xam)は、画像組に含まれる可視光画像と遠赤外光画像とに適用されるどのフィルタ出力が、後に行われる認識処理において用いられるかを示す。すなわち、選択次元のリストは、可視光画像の情報と遠赤外光画像の情報の組み合わせ方を規定しているということができる。
【0107】
ステップS97で決定された識別平面は、選択次元のリストと、その選択次元についての係数とにより表される。これらの識別平面を表すパラメータは、識別パラメータ記憶部150(図6)に格納される。
【0108】
上述した処理手順において、ステップS95を省略し、ステップS96の判断を削除された特徴量次元の数が予め定めた値に達したか否かの判断に置き換えてもよい。すなわち、特徴量次元の削除数が予め定めた数に達した場合にはステップS97に進み、予め定めた回数に達しない場合はステップS92に進むようにしてもよい。このような処理を行うことで、特徴量次元数を予め定めた値に設定することができる。
【0109】
なお、ステップS94において用いられる値dを大くすると、ステップS92〜ステップS96までの手順の繰り返し回数を少なくすることができ、計算量を低減することができる。一方、dの値を小さくすると、一度に多くの特徴量次元を削除することがないので、望ましい識別性能を実現するために必要十分な数の特徴量次元を選択次元として決定することが可能になる。
【0110】
なお、後に行われる認識処理において、ステップS97で決定された識別平面とは異なる識別面(平面に限定されない)が、判定基準(識別パラメータ)として用いられてもよい。そのような識別面は、選択次元によって定義される空間内で人間を表す特徴量ベクトルと人間以外の対象物を表す特徴量ベクトルとを識別するように設定される。選択次元によって定義される空間内で人間を表す特徴量ベクトルと人間以外の対象物を表す特徴量ベクトルとを識別する任意の識別手法およびその識別手法において用いられる識別パラメータが、後に行われる認識処理において、対象物が人間であるか否かを判定するために採用され得る。
【0111】
後に行われる認識処理において、線形な識別手法が採用されてもよいし、非線形な識別手法が採用されてもよい。線形な識別手法とは、例えば、ステップS97で決定された、識別パラメータによって表される識別平面のどちら側に対象物を表現する特徴量ベクトルがあるかに基づいて、対象物が人間であるか否かを判定する手法である。非線形な識別手法の例としては、k−NN法、非線型素子を用いたパーセプトロン、LVQ、非線型SVM等が挙げられる。以下、図13A〜図13Cを参照して、非線型な識別手法の例を説明する。
【0112】
図13Aは、曲面の識別面を用いた識別手法を説明する図である。空間1380は、選択次元によって定義される特徴量空間である。図13Aには、空間1380は、特徴量次元1と特徴量次元2との2つの選択次元によって定義される平面として示されており、識別面1361は、曲線として示されている。図13Aおよび後述する図13B、図13Cにおいて、○印のそれぞれは、人間を表現する特徴量ベクトルを表し、×印のそれぞれは、人間以外の対象物を表現する特徴量ベクトルを表す。
【0113】
識別面1361は、特徴量空間1380において、人間を表現する特徴量ベクトルと、人間以外の対象物を表現する特徴量ベクトルとを識別する。この例では、人間を表現する特徴量ベクトル(○印)は、識別面1361の第1の側(矢印1362の側)に位置し、人間以外の対象物表現する特徴量ベクトル(×印)は、識別面1361の第2の側(矢印1363の側)に位置する。識別面1361は、例えば、特徴量次元1と特徴量次元2との値を変数とする式によって表され得る。このような式の係数は、識別パラメータとして識別パラメータ記憶部150(図6)に格納される。
【0114】
点1364は、後に行われる認識処理において入力される画像組(認識用画像組)についての特徴量ベクトルを示す。図13Aに示される例では、特徴量ベクトル1364は識別面1361の第1の側に位置しているので、認識用画像組の対象物は人間であると判定される。
【0115】
図13Bは特徴量空間1380における距離を用いる識別手法を説明する図である。このような識別手法の例としては、k−NN法やLVQなどが挙げられる。代表点1366は、人間を表現する特徴量ベクトルを代表する点(「人間」というカテゴリを示す代表点)である。代表点1366は、例えば、人間を表現するすべての特徴量ベクトルの重心として求められる。同様に、代表点1367は、人間以外の対象物を表現する特徴量ベクトルを代表する点(「人間以外」というカテゴリを示す代表点)である。代表点1366および代表点1367は、特徴量空間においてその点を表す座標によって表される。このような座標は、識別パラメータとして識別パラメータ記憶部150(図6)に格納される。
【0116】
点1365は、後に行われる認識処理において入力される画像組(認識用画像組)についての特徴量ベクトルを示す。この識別手法では、特徴量ベクトルから最も近い代表点の属するカテゴリが、その特徴量ベクトルについての認識結果となる。図13Bに示される例では、特徴量ベクトル1365から最も近い代表点(代表点1366)の示すカテゴリが「人間」というカテゴリなので、認識用画像組の対象物は人間であると判定される。
【0117】
図13Cは、特徴量空間1382における特徴量ベクトルの分布を用いた識別手法を説明する図である。このような識別手法の例としては、非線型素子を用いたパーセプトロンなどのニューラルネット等の手法が挙げられる。図13Cにおいて、特徴量空間1382は、1つの選択次元(特徴量次元1)によって定義される1次元の空間(すなわち、直線)として示されている。曲線1369と曲線1370とはそれぞれ、特徴量空間1382における人間を表現する特徴量ベクトルの分布の強度(「人間」というカテゴリを示す分布の強度)と、人間以外の対象物を表現する特徴量ベクトルの分布の強度(「人間以外」というカテゴリを示す分布の強度)とを示す。曲線1369と曲線1370とは、特徴量次元1の値を変数とする式によって表され得る。このような式の係数は、識別パラメータとして識別パラメータ記憶部150(図6)に格納される。
【0118】
点1368は、後に行われる認識処理において入力される画像組(認識用画像組)についての特徴量ベクトルを示す。この識別手法では、特徴量ベクトルの位置において、複数の分布の強度を比較し、最大の分布の強度が示すカテゴリがその特徴量ベクトルについての認識結果となる。図13Cに示される例では、特徴量ベクトル1368の位置において、「人間」というカテゴリを示す分布の強度1369が、「人間以外」というカテゴリを示す分布の強度1370よりも大きいので、認識用画像組の対象物は人間であると判定される。
【0119】
このように、識別パラメータは識別平面のみでなく、特徴量空間において異なるカテゴリに属する特徴量ベクトルを識別する任意の識別手法において用いられるパラメータを表現する。
【0120】
図14は、特徴量次元の削除処理を行うことに伴う識別性能の変化を模式的に示す。図14に示されるように、最初は、特徴量次元を削除することによって、識別性能は向上する。これは、識別に寄与しない特徴量次元を削減することによって、識別に悪影響のある余分な情報(ノイズ)を低減することができるからである。
【0121】
一般に、可視光画像と遠赤外光画像のように異なる属性を持つ複数の画像の情報を単純に組み合わせると情報量が増し、識別処理が増加するとともに、学習に必要なサンプル数(学習用の画像組の数)が増加するため、サンプル収集が困難になる。学習用の画像組の数が不足すると、識別性能が悪化する可能性がある。しかしながら、本発明の実施の形態では、可視光画像の情報と遠赤外光画像の情報とを組み合わせた上で、ステップS92〜ステップS96において、特徴量次元が削除される。特徴量次元を削除して識別に有効な情報を選別することにより、後に行われる認識処理における計算量を低減しつつ、識別性能を向上させる(または、維持する)ことが可能になる。
【0122】
人間を表現する画像組858組と人間以外対象物を表現する画像組11052組を用いて本発明者らがシミュレーションを行った結果、ステップS92〜ステップS96の処理によって、特徴量次元の数が88%削減できると同時に、誤識別の確率が1/9に低減された。
【0123】
ステップS96(図12)における判定は、例えば、次のようにして行われる。ステップS95で求められる識別性能の変化を監視し、前回のステップS95での識別性能と今回のステップS95での性能を比較し、識別性能が向上または維持していれば基準を満たすと判定し、識別性能が低下していれば基準を満たさないと判定する。このような判定を行う場合には、図14に点1302により示される識別性能の極大値を実現することができる。
【0124】
ステップS96(図12)における判定は、他の様式で行われてもよい。例えば、絶対的な識別性能値(図14に示される参照番号1301)を予め指定し、指定した識別性能を実現できる条件下でできるだけ特徴量次元を削除してもよい。この場合には、その識別性能値を満たす限りにおいて、最大限に特徴量次元の数が削除される(点1302)。
【0125】
図15は、ステップS91(図12)のさらに詳細な処理手順を示す。なお、ステップS101は、ステップS1001a(図1)に対応し、ステップS102〜S104は、ステップS1001b(図1)に対応する。
【0126】
ステップS101:可視光画像と遠赤外光画像とが入力される。この可視光画像と遠赤外光画像とは、画像組を構成する。ステップS101において、人間を表現する画像組(可視光画像と遠赤外光画像とが、同一の人間を表現している画像組)と、人間以外の対象物を表現する画像組(可視光画像と遠赤外光画像とが、人間以外の同一の対象物を表現している画像組)とが入力される。このような画像組の例は、図2Aおよび図2Bを参照して上述した。
【0127】
ステップS101で入力される可視光画像と遠赤外光画像とは、遠赤外光カメラ100と可視光カメラ110とを用いて撮影され、いったん学習用の画像組として記憶装置120に格納される。あるいは、可視光画像と遠赤外光画像とは、記録媒体(図示せず)から読み出されることによって物体認識装置1に入力されてもよい。
【0128】
ステップS102:画像(可視光画像または遠赤外光画像)ごとに画素値の正規化が行われる。画素値の正規化は、(数2)に従って行われる。
【0129】
【数2】
I’(x,y)=(I(x,y)−m)/σ
ここで、
I(x,y):正規化の前の画像中の座標(x,y)における画素値
m:画像全体の画素値の平均値
σ:画像全体の画素値の平均値からの標準偏差
I’(x,y):画像中の座標(x,y)における正規化された画素値
である。
【0130】
ステップS103:画素値の正規化を行った画像に対して、複数の異なる特性のGaborフィルタが画像中の複数の領域に適用される。
【0131】
ステップS104:Gaborフィルタを適用した各領域(特定領域)に対応するフィルタ出力値から特徴量ベクトルが求められる。
【0132】
図16は、画像431と、画像431内の画像フィルタが適用される領域432との関係を示す。画像431は、ステップS101において入力される可視光画像または赤外光画像の1つである。領域432は、画像フィルタが適用される領域を示す。以下、画像431内の画像フィルタが適用される領域432を「特定領域」と呼ぶ。図16を参照しながら、ステップS103およびステップS104(図15)の処理の詳細を説明する。
【0133】
図16に示される例では、特定領域432は、一辺の長さがLの正方形の形状を有する。画像431は、高さH、幅Wのサイズの矩形の形状を有する。画像431内に、特定領域432が複数設定される。特定領域432のそれぞれに、特定領域432のサイズに一致するGaborフィルタが適用されることにより、その特定領域432のそれぞれにおいてフィルタ出力値が生成される。フィルタ出力値が生成される方法は、図3を参照して上述した。
【0134】
フィルタ処理部125(図6)は、例えば、特定領域432が画像431に対して重複を許して画像431の全体を覆うように、複数の特定領域432を画像431中に設定する。例えば、図16において、特定領域432がL=H/8のサイズ(サイズ1)を有し、W=H/2である場合に、特定領域432を縦方向と横方向とにL/2ずつ重複するように画像431の全面に配置すると、画像431の中の特定領域の数は(H/L×2−1)×(W/L×2−1)=15×7=105個になる。1つの特定領域には、特性の異なる(方位選択性の異なる)4個の画像フィルタ(図11A〜図11Dに示される4種類の方向選択性を有する4個の画像フィルタ)を適用する。
【0135】
さらに、サイズの異なる特定領域が、画像431の全面に配置される。サイズの異なる特定領域には、サイズの異なる画像フィルタが適用される。特定領域をL=H/4のサイズ(サイズ2)の正方形とすると、この特定領域を縦方向および横方向にL/2ずつ重複して画像431の全面を覆うように配置すると、W=H/2の仮定の下で、特定領域の数は、(H/L×2−1)×(W/L×2−1)=7×3=21個となる。同様に、特定領域をL=H/2のサイズ(サイズ3)の正方形とすると、特定領域の数は(H/L×2−1)×(W/L×2−1)=3×1=3個になる。
【0136】
画像431中の3つの異なるサイズ(サイズ1、サイズ2およびサイズ3)の特定領域の数をすべて合わせると105+21+3=129個になる。この特定領域のそれぞれに方位選択性の異なる4種類の画像フィルタを適用すると、画像431から129×4=516個のフィルタ出力が得られる。1つの画像組(学習用の画像組または認識用の画像組)は、可視光画像(輝度画像)と遠赤外光画像とを含む。可視光画像と遠赤外光画像とが同じサイズ(高さH、幅W)を有しており、可視光画像と遠赤外光画像との同じ位置に特定領域を設定する場合に、1つの画像組の2個の画像から得られるフィルタ出力の数は、516×2=1032個になる。従って、1つの画像組が1032次元の特徴量ベクトルによって表される。あるいは、より高い次元の特徴量空間を設定し、この1032次元の特徴量ベクトルをその高次元の特徴量空間に写像することにより、高次元の特徴量ベクトルを生成してもよい。特徴量ベクトルをより高次元の特徴量空間に写像することよって、それぞれの画像組に対応する特徴量ベクトルの間の距離が大きくなるので、後に行われるステップS93(図12)において識別平面を求めやすいという利点が得られる。
【0137】
なお、Gaborフィルタの方位の数は4に限定されない。Gaborフィルタの方位の数をGaborフィルタのサイズおよび/または特定領域の位置に依存して変えてもよい。Gaborフィルタのサイズおよび/または特定領域の位置に応じて方位の数を変えることにより、画像中の特定の位置(例えば、方位の区別を詳細に行いたい位置)および/または特定の空間周波数領域から、より多くの情報を効率よく取得することが可能になる。
【0138】
また、画像フィルタのサイズは3種類に限定されない。画像フィルタのサイズは、1種類以上であればよい。可視光画像と遠赤外光画像とで、画素値(輝度)の変化の空間周波数特性が異なる。従って、可視光画像と遠赤外光画像とで、適用される画像フィルタのサイズを変えることによっても、画像から多くの情報を効率よく取得することが可能になる。
【0139】
可視光画像と遠赤外光画像について、特定領域のサイズや位置は必ずしも等しくしなくてもよい。可視光画像と遠赤外光画像について、それぞれに適したサイズや位置を設定することで性能向上が期待できる。しかし、両画像に対する特定領域のサイズや配置を等しくすることにより、両画像に対する画像フィルタの適用の処理を同一の手続きで実行できるという利点が得られ、ハードウェア回路やソフトウェアの規模を削減することが可能になる。
【0140】
画像フィルタとして、Gaborフィルタと類似した形状のフィルタや他のエッジを求める画像フィルタが用いられてもよい。さらに、エッジを求めるフィルタ以外の画像フィルタが用いられてもよい。しかし、Gaborフィルタまたは類似形状の画像フィルタを用いることにより、位置空間と周波数空間との両方の空間で局在する輝度変化の情報を効率よく取得することが可能になる。従って、Gaborフィルタまたは類似形状の画像フィルタを用いた場合には、sobelフィルタなどのエッジフィルタを用いた場合に比較して効率よく特定の空間周波数において空間的変化の情報を取得することが可能になる。その結果、可視光画像と遠赤外光画像のように異なる性質の画像を組み合わせることによって増加した情報量の中から、効率的に認識のために有効な情報を取得することが可能になる。可視光画像の情報と遠赤外光画像の情報とは、遠赤外光画像から得られる温度の情報を用いることなく、効果的に組み合わされ、認識のために使用され得る。
【0141】
また、図16を参照して説明した例では、1つのサイズの画像431に複数のサイズの特定領域(Gaborフィルタを適用する領域)が設定された。しかし、予め同一対象を異なる解像度で撮影したサイズの異なる複数の画像のそれぞれに、同じサイズの特定領域(Gaborフィルタを適用する領域)を設定することによっても、同様の結果を得ることができる。
【0142】
遠赤外光画像と可視光画像とにおいて、必ずしも同じ位置に対象物が写っている必要はない(2枚の画像の間で上下方向および/または左右方向にずれていてもよい)。他の対象物を撮影した場合にも同じ位置関係が保たれる限り、可視光画像と遠赤外光画像の中における対象物の位置は一致する必要はない。本発明の学習処理および認識処理では、遠赤外光画像中の領域と、可視光画像中の領域とを対応付ける必要がないからである。
【0143】
図17は、ステップS95(図12)における、識別性能を評価する処理の詳細な手順を示す。
【0144】
ステップS111:特徴量ベクトルの成分のうち、ステップS92で指定された特徴量次元に対応する成分のみが有効にされる。この特徴量ベクトルとしては、ステップS91(図12)において求められた特徴量データFに含まれるすべての特徴量ベクトルまたは特徴量データFに含まれる一部の特徴量ベクトルが用いられる。
【0145】
ステップS112:予め定められ識別手法を用いて、人間を表現する特徴量ベクトルと、人間以外の対象物を表現する特徴量ベクトルとを識別する学習が行われる。予め定められ識別手法とは、後に行われる認識処理において、対象物が人間であるか否かを判定するために用いられる手法である。
【0146】
ステップS113:評価用の特徴量データ(特徴量ベクトルの集合)を用いて、識別性能が算出される。評価用の特徴量データとしては、ステップS91(図12)において求められた特徴量データFを用いてもよいし、図12に示される学習処理において使用しなかった特徴量データを用いてもよい。あるいは、予め評価用の特徴量ベクトルの集合を特徴量データFと同様の手続きで別途作成しておいてもよい。識別性能は、例えば、ステップS94(図12)で設定された次元を有効にした特徴量ベクトル(人間を表現する特徴量ベクトルと人間以外の対象物を表現する特徴量ベクトルとを含む)をステップS112における学習が終った後の識別手法を用いて正しく識別できた割合として表される。
【0147】
<認識処理>
図18は、物体認識装置1が実行する認識処理の詳細な手順を示す。ステップS121は、ステップS1002a(図1)に対応しており、ステップS122〜ステップS123は、ステップS1002b(図1)に対応しており、ステップS124〜ステップS125は、S1002c(図1)に対応している。
【0148】
ステップS121:可視光画像と遠赤外光画像とが入力される。この画像入力は、学習処理におけるステップS101(図15)と同様に、可視光カメラ110と遠赤外光カメラ100(図6)とにより行われる。
【0149】
ステップS122:画像(可視光画像および遠赤外光画像)から、認識対象領域が切り出される。認識対象領域は、その認識対象領域の形状が学習処理において使用した画像の形状に一致するように切り出される。認識対象領域は、画像中で固定しておいてもよいし、1つの画像から複数の認識対象領域が切り出されてもよい。切り出される認識対象領域の形状は、図16を参照して説明した例では、縦横比がH対Wの矩形である。学習処理における可視光画像の形状と認識処理において可視光画像から切り出される認識対象領域の形状とが同じであり、かつ、学習処理における遠赤外光画像の形状と認識処理において遠赤外光画像から切り出される認識対象領域の形状とが同じである限り、可視光画像から切り出される認識対象領域の形状と、遠赤外光画像から切り出される認識対象領域の形状とが異なっていてもよい。
【0150】
ステップS122における切り出しは、学習処理においてステップS101(図15)で入力された可視光画像と遠赤外光画像との撮影位置を考慮して行われる。具体的には、学習処理における可視光画像と、認識処理において可視光画像から切り出された認識対象領域とで、同じ位置に対象物が写るように、ステップS122における切り出しが行われる。もちろん、認識処理において可視光画像を撮影する可視光カメラ110を切り出しが必要でないように設置していてもよい。遠赤外光画像についても同様である。可視光画像と遠赤外光画像との拡大率についても同様で、可視光画像と遠赤外光画像の両者の拡大率(画素数)が異なっていてもよいが、可視光画像の拡大率と遠赤外光画像の拡大率(画素数)との比は、学習処理と認識処理とで同じになるように調整される。
【0151】
次に、必要に応じて、切り出した可視光画像と遠赤外光画像の大きさが正規化される。可視光画像、遠赤外光画像ともに切り出した形状が縦横比2:1の矩形の場合、例えば、縦64画素、横32画素の矩形に大きさが正規化される。画像の大きさを正規化することによって、次のステップS123において画像に適用されるGaborフィルタの大きさ(フィルタを作用させる特定領域の大きさ)は、固定され得る。切り出され、大きさが正規化された可視光画像と遠赤外光画像とは、認識用の画像組を構成する。
【0152】
ステップS123:切り出した画像から、ステップS97(図12)で決定された選択次元に対応する特徴量ベクトルが求められる。特徴量ベクトルは、学習処理において用いられたものと同じGaborフィルタを用いて算出される。上述したステップS122において画像の大きさが正規化されていない場合には、画像の大きさに応じたサイズのGaborフィルタが適用される。
【0153】
学習処理において特徴量次元の一部を削除している場合には、削除した特徴量次元に対応するGaborフィルタの演算処理は不要であるので、予め特徴量ベクトルの算出処理から除いておく。
【0154】
ステップS124:特徴量ベクトルと識別平面の係数との重み付け和を用いて、類似度が求められる。類似度は、認識用の画像組の対象物が人間に似ている度合いを表す。既に述べたように、特徴量ベクトルと識別平面の係数との重み付け和は、特徴量ベクトルと識別平面との距離(位置関係)を表す。この距離は、識別平面で区切られる一方の空間側(例えば、人間を表す特徴量ベクトルが位置する第1の側)にある場合に正の値、反対側(例えば、人間以外の対処物を表す特徴量ベクトルが位置する第2の側)にある場合に負の値として表すことができる。特徴量ベクトルが識別平面から離れるほど、距離の絶対値が大きくなる。
【0155】
ステップS125:類似度に基づいて、人間が認識される(すなわち、対象物が人間であると判定される)。例えば、類似度(特徴量ベクトルと識別平面との距離)が正であるか負であるかに基づいて(すなわち、特徴量ベクトルが、識別平面どちらの側に位置するかに基づいて)、対象物が人間であるか否かの判定がなされる。あるいは、類似度が正であり(すなわち、特徴量ベクトルが、識別平面の第1の側にあり)、かつ、類似度が所定の閾値以上である場合に、対象物が人間であると判定するようにしてもよい。このような閾値は、認識の精度についての要求(例えば、人間でない対象物を人間と誤認識する可能性を低減することが望まれるのか、人間を人間でないと誤認識する可能性を低減することが望まれるのか)に応じて設定され得る。類似度を示す数値が表示部170に表示されてもよい。
【0156】
このように、本発明の物体認識装置1(図6)は、学習用の画像組の遠赤外光画像と可視光画像とを用いて識別パラメータ(例えば、識別平面を表すパラメータ)を求め、その識別パラメータを判定基準として用いて認識用の画像組の遠赤外光画像と可視光画像との対象物を認識する(対象物が特定のカテゴリに属するか否かを判定する)。対象物の認識は、対象物から放射または反射される可視光線の強度(第1の属性)と、対象物から放射または反射される遠赤外光線の強度(第2の属性)とに基づいて行われるので、対象物の認識の信頼度が高くなる。
【0157】
本発明者らは、屋外で昼夜に撮影した可視光画像と遠赤外光画像の組(人間を表す画像組858組と人間以外の対象物を表す画像組11052組)を学習用画像組として用いて、上述した学習処理および認識処理のシミュレーションを行った。シミュレーションの結果、誤認識率は0.2%であった。この誤認識率は、可視光画像のみを用いて学習処理および認識処理を行った比較例における誤検出率(2.7%)および遠赤外光画像のみを用いて学習処理および認識処理を行った比較例における誤認識率(3.5%)に比較して、非常に低い(1/10以下)値である。このように、高い対象物の認識の信頼度が実現される。
【0158】
本発明の物体認識装置1は、可視光画像と遠赤外光画像とを用いて学習処理を行うことにより、可視光画像と遠赤外光画像との間の相関関係を学習することができ、その相関関係が認識処理に反映される。例えば、日中の屋外で対象物(人間)を撮影した可視光画像と遠赤外光画像とを考える。対象物に直射日光が当たるような環境条件下では、可視光画像中の対象物の輝度は高くなると同時に、遠赤外光画像は対象物の温度が高いことを示す。一方、対象物に直射日光が当たらないような環境条件下では、可視光画像中の対象物の輝度は低くなると同時に、遠赤外光画像は対象物の温度が低いことを示す。
【0159】
このような様々な環境条件下で撮影された可視光画像と遠赤外光画像とを用いることにより、本発明の物体認識装置1は、可視光画像と遠赤外光画像との間の相関関係を学習することができる。その結果、例えば、認識画像組の可視光画像中の対象物の輝度が高く、かつ、遠赤外光画像は対象物の温度が低い場合(対象物が人間である場合には起こり得ない事象が発生した場合)に、その対象物を人間であると誤認識する可能性は低い。
【0160】
可視光画像のみを用いて学習処理および認識処理を行う認識システムでは、様々な環境条件下で撮影された可視光画像を用いて学習処理を行うことにより、対象物を人間として認識するための許容範囲が広くなる。その結果、人間でない対象物を人間であると誤認識する可能性が高くなる。遠赤外光画像のみを用いて学習処理および認識処理を行う認識システムについても同様である。
【0161】
本発明の物体認識装置1によれば、様々な環境条件(例えば、照明の条件、温度の条件)において撮影された学習用の画像組を用いて学習処理を行うことにより、その様々な環境条件において撮影された認識用の画像組の対象物を正しく認識することができるようになる。このような特徴は、屋外における侵入者の監視システムや、自動車等の移動体に搭載される歩行者の検出システムや、移動ロボットに搭載される視覚システム等の、変動する環境条件下で対象物を正しく認識することが要求される用途に特に適している。
【0162】
さらに、上述した本発明の学習処理および認識処理は、対象物の属性に特化した処理ではない。これは、本発明の物体認識装置1が、上述した本発明の学習処理および認識処理を変更することなく、人間の認識以外の用途(例えば、動物を認識する用途または車両を認識する用途)にも適用できることを意味する。このように、本発明の物体認識装置1は、認識が行われる環境条件が変化した場合および認識の対象物が変化した場合の初期設定が容易である。
【0163】
本発明の物体認識装置1では、遠赤外線画像から特定の温度領域を抽出する処理は必要ではない。従って、時間経過とともに変化する遠赤外線カメラの光学系や回路、素子等の温度の影響をキャンセルするためのキャリブレーション処理を行う必要がなく、物体認識装置1の構成およびその保守を簡素化できるという利点が得られる。
【0164】
上述した実施の形態では、学習処理のステップS97(図12)において、選択次元が1セットに定められていた。しかし、選択次元のリスト(選択次元のセット)を複数セット用意して、各セットごとに識別パラメータが設定されていてもよい。この場合、認識処理において、いずれか1つのセットの識別パラメータを用いて求められた類似度に基づいて人間の認識を行ってもよいし、複数のセットのそれぞれの識別パラメータを用いて求められた類似度の和(平均値)に基づいて人間の認識を行ってもよい。あるいは、複数のセットのそれぞれの識別パラメータを用いて求められた類似度に基づいて人間の認識を行い、その認識結果の多数決を行ってもよい。
【0165】
上述した実施の形態では、ステップS122において切り出された認識対象領域について、ステップS123においてGaborフィルタを用いて特徴量ベクトルを求めていた。しかし、切り出しを行う前の画像にGaborフィルタを適用してもよい。この場合、フィルタを作用させる特定領域を予め画像全体に設定してGaborフィルタを適用し、画像全体の各位置に対するフィルタ出力を事前に得ておく。次に、画像中で検出の対象領域となる場所のフィルタ出力のみを用いて特徴量ベクトルを算出する。このように予めフィルタ出力を求めておくことにより、画像中の広範囲を走査しながら切り出しと認識の手続きを順次繰り返す場合等に、画像中の同一個所に同一のGaborフィルタを適用するフィルタ演算を複数回行う無駄を回避することができる。なお、画像中の広範囲を走査しながら切り出しと認識の手続きを順次繰り返す処理によって、対象物がどこに写っているのか未確定な画像から、人間を検出することができる。このような処理を行う場合には、物体認識装置1(図6)を物体検出装置として機能させることができる。
【0166】
学習処理において用いられる人間以外の対象物を表現する画像組(可視光画像と遠赤外光画像の組)は、木や犬等の実在する人間以外の対象物を撮影することによって物体認識装置1に入力されてもよい。あるいは、人間を表現する画像組の可視光画像と遠赤外光画像とに対して変換処理を施すことによりそれぞれ生成される可視光画像と遠赤外光画像との組が、人間以外の対象物を表現する画像組として学習処理において用いられてもよい。このような変換処理の例としては、画像にアフィン変換を施す処理および/または画像にノイズを付加する処理が挙げられる。変換処理後の画像は、人間を表現する画像に比較的類似した画像である。このような変換処理後の画像を学習処理において用いることにより、少しでも人間の形状とは異なる形状の対象物は人間として認識しないような判定基準を学習することができる。
【0167】
上述した実施の形態では、ほぼ同時刻に撮影した可視光画像と遠赤外光画像の2画像を組み合わせて学習処理および認識処理を行っていた。組み合わせる画像の数は2枚に限定されない。また、可視光画像として、輝度画像に代えて、カラー画像を用いてもよい。この場合、カラー画像をRGB(対象物から放射または反射される、異なる3種類の波長帯域の光の強度を表す3種類の画像)の3つの画像で表現すると、Rの画像とGの画像とBの画像の3画像と遠赤外光画像の計4個の画像が1つの画像組(学習用の画像組および認識用の画像組)として物体認識装置1に入力される。4個の画像を入力とした場合の学習処理および認識処理は、可視光画像と遠赤外光画像との2つの画像を入力した場合の学習処理および認識処理と同様である。
【0168】
物体認識装置1に入力される画像組が、異なる時刻に撮影した画像を含んでいてもよい。例えば、入力部190は、時刻T(第1の時刻)に撮影した可視光画像(第1の画像)および遠赤外光画像(第2の画像)と、時刻T+t(第1の時刻から所定の時間後の時刻)に撮影した可視光画像(第5の画像)および遠赤外光画像(第6の画像)との4枚の画像を1つの認識用の画像組として物体認識装置1に入力するように構成されていてもよい。もちろん、この場合には、学習用の画像組のそれぞれも、同一の時刻に撮影された可視光画像および遠赤外光画像と、その時刻からt時間後に撮影された可視光画像および遠赤外光画像とを含んでいなければならないことは言うまでもない。4個の画像を入力とした場合の学習処理および認識処理は、可視光画像と遠赤外光画像との2つの画像を入力した場合の学習処理および認識処理と同様である。
【0169】
このように、撮影時刻の異なる可視光画像と遠赤外光画像を組み合わせることで、歩行者などのように時間とともに形状が特定の様態で変化する対象物と、時間とともに形状が変化しない対象物および時間とともに形状が異なった様態で変化する対象物とを区別することが可能になり、認識の精度が向上する。
【0170】
所定の時間tを短くすると速い動きを伴う対象物を効率よく認識することができ、所定の時間tを長くすると遅い動きを伴う対象物を効率よく認識することができる。通常、屋外において動きを伴う人間、車両または動物等を認識する場合には、所定の時間tを1秒以下に設定することにより、形状および/または位置が時間とともに変化する対象物を効果的に認識することができる。このように、複数の時刻における画像の情報を効果的に組み合わせることにより、識別性能が向上する。
【0171】
本発明の物体認識装置1によれば、画像組に含まれる画像の数が増えた場合にも、識別に寄与する特徴量次元(フィルタ出力)だけが選択されるので、画像の数の増加による認識処理の計算量の増加が抑制される。
【0172】
物体認識装置1に入力される画像組が、視点の異なる画像を含んでいてもよい。例えば、同じ位置から撮影した可視光画像および遠赤外光画像と、それとは異なる位置から撮影した可視光画像および遠赤外光画像とが1つの画像組を構成してもよい。
【0173】
図19は、遠赤外光カメラと可視光カメラとの配置のさらに他の例を示す。図19に示される例では、遠赤外光カメラ100aと可視光カメラ110aとがA地点に配置されており、遠赤外光カメラ100bと可視光カメラ110bとがB地点に配置されている。4つのカメラは、同一の対象物を撮影するように配置されている。遠赤外光カメラ100a、100bおよび可視光カメラ110a、100bは、全体として、物体認識装置1(図6)に学習用の画像組および認識用の画像組を入力する入力部190(図6)として機能する。
【0174】
入力部190は、認識処理においては、A地点(第1の場所)から撮影された可視光画像(第1の画像)および遠赤外光画像(第2の画像)に加えて、さらに、B地点(第2の場所)から撮影された可視光画像(第5の画像)および遠赤外光画像(第6の画像)との4枚の画像を1つの認識用の画像組として物体認識装置1に入力するように構成されている。4個の画像を入力とした場合の学習処理および認識処理は、可視光画像と遠赤外光画像との2つの画像を入力した場合の学習処理および認識処理と同様である。
【0175】
このように、異なる場所から撮影された可視光画像と遠赤外光画像を組み合わせることにより、人物のように見る向きによって異なる形状を有する物体を認識する精度が向上する。
【0176】
本発明の物体認識装置1によれば、画像組に含まれる画像の数が増えた場合にも、識別に寄与する特徴量次元(フィルタ出力)だけが選択されるので、画像の数の増加による認識処理の計算量の増加が抑制される。
【0177】
また、異なる位置から撮影した可視光画像と遠赤外光画像とが1つの画像組を構成してもよい。
【0178】
図20は、遠赤外光カメラ100と可視光カメラ110との配置のさらに他の例を示す。図20に示される例では、可視光カメラ110がC地点に配置されており、遠赤外光カメラ100がD地点に配置されている。2個のカメラは、同一の対象物を撮影するように配置されている。
【0179】
図20に示される例では、遠赤外光カメラ100と可視光カメラ110とは、C地点(第1の場所)から可視光画像(第1の画像)を撮影し、D地点(第2の場所)から遠赤外光画像(第2の画像)を撮影するように構成されている。このような構成によれば、可視光画像と遠赤外光画像とで、対象物の背景が異なるようにすることができる。可視光画像と遠赤外光画像と共通する背景の余分な情報が認識結果に悪影響を及ぼす可能性が低下し、認識結果が背景の影響を受けにくくなるという利点が得られる。また、図19に示される例と同様に、異なる複数の視点から撮影した画像を用いることで、人物のように見る向きによって異なる形状を有する対象物の認識精度が向上する。
【0180】
上述した実施の形態では、異なる属性を用いて対象物を表現する画像の例として、可視光画像と遠赤外光画像とを挙げたが、本発明はこれに限定されない。可視光画像と近赤外光画像とで画像組を構成するようにしてもよいし、可視光画像と紫外光画像とで画像組を構成するようにしてもよい。あるいは、可視光画像と距離画像とで画像組を構成するようにしてもよい。距離画像における画素値は、撮影点から対象物までの距離を示す。距離画像は、撮影点から対象物までの距離という属性を用いて対象物を表現する画像であるということができる。
【0181】
上述した本発明の学習処理および認識処理は、対象物の属性に特化した処理ではないので、可視光画像と遠赤外光画像以外の種類の画像を用いた場合にも、上述した本発明の学習処理および認識処理を変更する必要はない。
【0182】
本発明の学習処理と認識処理とは、典型的には、コンピュータ上のソフトウェアによって実現される。しかし、本発明の学習処理と認識処理とをハードウェアによって実現してもよいし、ソフトウェアとハードウェアとの組み合わせによって実現してもよい。さらに、物体認識装置1(図6)が学習処理を実行することは必須ではない。なぜなら、物体認識装置1は、学習処理の結果(識別パラメータ)が識別パラメータ記憶部150に格納されてさえいれば、認識処理(図1に示されるステップS1002a〜S1002cの処理)を実行することができるからである。そのような識別パラメータは、予め定められたパラメータであり得る。あるいは、そのような識別パラメータは、物体認識装置1とは別の装置を使用して学習処理を行うことによって求められてもよい。そのような学習処理の結果として得られる識別パラメータを物体認識装置1の識別パラメータ記憶部150に格納することにより、物体認識装置1はその識別パラメータを判定基準として用いた認識処理を行うことが可能になる。
【0183】
物体認識装置1が学習処理を行わない場合には、学習処理部130および記憶装置120は省略されてもよい。
【0184】
本発明の学習処理と認識処理との一方またはその両方の一部または全部を表現するプログラム(学習プログラム、認識プログラム)は、例えば、学習処理部130内のメモリ(図示せず)または認識処理部140内のメモリ(図示せず)に格納され得る。あるいは、そのようなプログラムは、フレキシブルディスク、CD−ROM、DVD−ROMなどの任意のタイプのコンピュータ読み取り可能な記録媒体に記録され得る。そのような記録媒体に記録された学習プログラムまたは認識プログラムは、ディスクドライブ(図示せず)を介してコンピュータのメモリにロードされる。あるいは、学習プログラムまたは認識プログラム(またはその一部)は、通信網(ネットワーク)または放送を通じてコンピュータのメモリにダウンロードされてもよい。コンピュータに内蔵されるCPUが学習プログラムまたは認識プログラムを実行することによって、そのコンピュータは物体認識装置として機能する。
【0185】
【発明の効果】
本発明によれば、認識のために入力される画像組は、対象物を第1の属性を用いて表現する第1の画像と、その対象物を第1の属性とは異なる第2の属性を用いて表現する第2の画像とを含む。対象物が特定のカテゴリに属するか否かの判定は、第1の属性と第2の属性とに基づいて行われるので、対象物の認識の信頼度が高くなる。さらに、その所定の数の画像の予め定められた位置に予め定められた画像フィルタを適用することによって得られるフィルタ出力値を成分として有する特徴量空間内の特徴量ベクトルが求められ、画像組は、この特徴量ベクトルによって表される。この処理には、第1の画像の領域と第2の画像の領域とを対応付ける処理は必要でないので、対象物の認識を行うための初期設定が容易であり、認識結果は、環境条件の影響を受けにくい。
【図面の簡単な説明】
【図1】本発明の物体認識方法の全体の処理手順を示すフローチャート
【図2A】ステップS1001a(図1)において入力される画像組610〜613を示す図
【図2B】ステップS1001a(図1)において入力される画像組660〜663を示す図
【図3】画像351に画像フィルタ354を適用する例を示す図
【図4】ステップ1001b(図1)において各画像組について求められた特徴量ベクトルを特徴量空間701にプロットした状態を示す図
【図5】ステップ1002a(図1)において入力される認識用の画像組510の例を示す図
【図6】本発明の実施の形態の物体認識装置1の構成を示すブロック図
【図7A】遠赤外光カメラ100と可視光カメラ110との配置の例を示す図
【図7B】遠赤外光カメラ100と可視光カメラ110との配置の他の例を示す図
【図7C】遠赤外光カメラ100と可視光カメラ110とに代えて、その両方の機能を併せ持つ可視光・遠赤外光カメラ210が用いられる例を示す図
【図8A】可視光カメラ110によって撮影された、人間の対象物を表現する可視光画像803の例を示す図
【図8B】遠赤外光カメラ100によって撮影された、人間の対象物を表現する遠赤外光画像804の例を示す図
【図9A】可視光カメラ110によって撮影された、人間以外の対象物(木)を表現する可視光画像805の例を示す図
【図9B】遠赤外光カメラ100によって撮影された、人間以外の対象物を表現する遠赤外光画像806の例を示す図
【図10A】フィルタ処理部125(図6)において用いられる画像フィルタの特性を模式的に示す図
【図10B】水平方向のエッジを選択的に検出する画像フィルタの特性を模式的に示す図
【図10C】左下から右上に延びるエッジを選択的に検出する画像フィルタの特性を模式的に示す図
【図10D】右下から左上に延びるエッジを選択的に検出する画像フィルタの特性を模式的に示す図
【図11A】Gaborフィルタのフィルタ係数の例を示す図
【図11B】Gaborフィルタのフィルタ係数の例を示す図
【図11C】Gaborフィルタのフィルタ係数の例を示す図
【図11D】Gaborフィルタのフィルタ係数の例を示す図
【図12】物体認識装置1が実行する学習処理の詳細な手順を示すフローチャート
【図13A】曲面の識別面を用いた識別手法を説明する図
【図13B】特徴量空間1380における距離を用いる識別手法を説明する図
【図13C】 特徴量空間1382における特徴量ベクトルの分布を用いた識別手法を説明する図
【図14】特徴量次元の削除処理を行うことに伴う識別性能の変化を模式的に示す図
【図15】ステップS91(図12)のさらに詳細な処理手順を示すフローチャート
【図16】画像431と、画像431内の画像フィルタが適用される領域432との関係を示す図
【図17】ステップS95(図12)における、識別性能を評価する処理の詳細な手順を示すフローチャート
【図18】物体認識装置1が実行する認識処理の詳細な手順を示すフローチャート
【図19】遠赤外光カメラと可視光カメラとの配置のさらに他の例を示す図
【図20】遠赤外光カメラ100と可視光カメラ110との配置のさらに他の例を示す図
【符号の説明】
1 物体認識装置
100 遠赤外光カメラ
110 可視光カメラ
120 記憶装置
125 フィルタ処理部
130 学習処理部
140 認識処理部
150 識別パラメータ記憶部
160 ワークメモリ
170 表示部
190 入力部
Claims (13)
- 第1の対象物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力する入力部と、
該入力部が前記第1の画像データ組を入力して、入力された前記第1の画像データ組の前記第1の画像データと前記第2の画像データにおける予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求める特徴量ベクトル算出部と、
前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が特定のカテゴリに属するか否かを判定する判定部と
を備えた物体認識装置。 - 前記第1の画像データは、前記第1の対象物から放射または反射される可視光線の光の強度によって前記第1の対象物を表現し、前記第2の画像データは、前記第1の対象物から放射または反射される遠赤外線の光の強度よって前記第1の対象物を表現する、請求項1に記載の物体認識装置。
- 前記入力部は、それぞれが複数の画像データからなる第2の画像データ組および第3の画像データ組をさらに前記特徴量ベクトル算出部に入力し、前記第2の画像データ組および第3の画像データ組のそれぞれは、前記特定のカテゴリに属する第2の対象物の可視光画像の画像データである第3の画像データと、前記第2の対象物の遠赤外光画像の画像データである第4の画像データとを含み、
前記特徴量ベクトル算出部は、前記入力された第2の画像データ組および第3の画像データ組のそれぞれについて、前記第3の画像データおよび第4の画像データにおける予め定められた少なくとも1つの位置に、前記画像フィルタと同じ選択性を有する少なくとも1つの画像フィルタを適用することによって前記第3の画像データおよび前記第4の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、前記特徴量空間における特徴量ベクトルをさらに求め、
前記第2の画像データ組についての前記特徴量空間における少なくとも1つの特徴量ベクトルと、前記第3の画像データ組についての前記特徴量空間における少なくとも1つの特徴量ベクトルとを識別するように、前記識別パラメータを求める学習部をさらに備えた、請求項1に記載の物体認識装置。 - 前記第1の対象物は人間である請求項1〜3のいずれかに記載の物体認識装置。
- 前記学習部は、前記特徴量空間よりも多い次元数を有する仮の特徴量空間において、前記第2の画像データ組についての特徴量ベクトルと、前記第3の画像データ組についての特徴量ベクトルとを識別するための平面の法線の向きに基づいて前記仮の特徴量空間から少なくとも1つの次元を削除することによって、前記特徴量空間を定義する、請求項3に記載の物体認識装置。
- 前記識別パラメータは、前記特徴量空間における識別面を表し、前記判定部は、前記第1の特徴量ベクトルが、前記識別面に対してどちらの側に位置するかに基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定する、請求項1に記載の物体認識装置。
- 前記判定部は、前記第1の特徴量ベクトルと、前記識別面との距離が所定の閾値以上である場合に、前記第1の対象物が前記特定のカテゴリに属すると判定する、請求項6に記載の物体認識装置。
- 前記入力部は、前記第1の対象物の可視光画像の画像データである第5の画像データと、前記第1の対象物対象物の遠赤外光画像の画像データである第6の画像データとをさらに前記特徴量ベクトル算出部に入力するようになっており、前記第5の 画像データおよび前記第6の画像データは、前記第1の画像データと前記第2の画像データとが撮影された第1の時刻から所定の時間の後に撮影されたものである、請求項1に記載の物体認識装置。
- 前記第1の画像データが第1の場所から撮影され、前記第2の画像データが前記第1の場所とは異なる第2の場所から撮影されたものである、請求項1に記載の物体認識装置。
- 前記入力部は、前記第1の対象物の可視光画像の画像データである第5の画像データと、前記第1の対象物の遠赤外光画像の画像データである第6の画像データとをさらに前記特徴量ベクトル算出部に入力するようになっており、前記第5の画像データおよび前記第6の画像データは、前記第1の画像データと前記第2の画像データとが撮影される第1の場所とは異なる第2の場所から撮影されたものである、請求項1に記載の物体認識装置。
- 物体を認識する方法であって、
(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、
(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、
(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップと
を包含する、物体認識方法。 - コンピュータに物体認識処理を実行させるためのプログラムであって、
前記物体認識処理は、
(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、
(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、
(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップと
を包含する、プログラム。 - コンピュータに物体認識処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記物体認識処理は、
(a)第1の対象物物の可視光画像の画像データである第1の画像データと、前記第1の対象物の遠赤外光画像の画像データである第2の画像データとを含む第1の画像データ組を入力するステップと、
(b)入力された前記第1の画像データと前記第2の画像データのそれぞれの予め定められた少なくとも1つの位置に、方位選択性、位置選択性、空間周波数特性の少なくとも1つの選択性を有する少なくとも1つの画像フィルタをそれぞれ適用することによって前記第1の画像データおよび前記第2の画像データからそれぞれ得られる少なくとも1つのフィルタ出力値を成分として有する、特徴量空間における第1の特徴量ベクトルを求めるステップと、
(c)前記第1の特徴量ベクトルと所定の識別パラメータとの関係に基づいて、前記第1の対象物が前記特定のカテゴリに属するか否かを判定するステップと
を包含する、記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001333151A JP3659914B2 (ja) | 2000-10-31 | 2001-10-30 | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-332004 | 2000-10-31 | ||
JP2000332004 | 2000-10-31 | ||
JP2001333151A JP3659914B2 (ja) | 2000-10-31 | 2001-10-30 | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002203240A JP2002203240A (ja) | 2002-07-19 |
JP3659914B2 true JP3659914B2 (ja) | 2005-06-15 |
Family
ID=26603103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001333151A Expired - Fee Related JP3659914B2 (ja) | 2000-10-31 | 2001-10-30 | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3659914B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4397667B2 (ja) * | 2003-10-06 | 2010-01-13 | 富士フイルム株式会社 | 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置 |
WO2006059504A1 (ja) | 2004-11-30 | 2006-06-08 | Matsushita Electric Industrial Co., Ltd. | 画像処理方法、画像処理装置、画像処理プログラムおよび画像ファイルフォーマット |
WO2006078015A1 (ja) * | 2005-01-24 | 2006-07-27 | National University Corporation Yokohama National University | カテゴリカル色知覚システム |
JP4821399B2 (ja) * | 2006-03-27 | 2011-11-24 | 株式会社豊田中央研究所 | 物体識別装置 |
JP4985264B2 (ja) * | 2007-09-25 | 2012-07-25 | 株式会社豊田中央研究所 | 物体識別装置 |
JP4981700B2 (ja) * | 2008-01-29 | 2012-07-25 | パナソニック株式会社 | 顔認証装置 |
JP2009230502A (ja) * | 2008-03-24 | 2009-10-08 | Ricoh Co Ltd | 画像情報配置装置 |
JP2011033497A (ja) | 2009-08-03 | 2011-02-17 | Honda Motor Co Ltd | 環境認識システム、環境認識方法およびロボット |
JP5588180B2 (ja) * | 2010-01-15 | 2014-09-10 | キヤノン株式会社 | パターン識別装置及びその制御方法 |
WO2015079282A1 (en) * | 2013-11-28 | 2015-06-04 | Intel Corporation | Method for determining local differentiating color for image feature detectors |
WO2016113983A1 (ja) * | 2015-01-13 | 2016-07-21 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及びシステム |
JP6688970B2 (ja) | 2016-07-15 | 2020-04-28 | パナソニックIpマネジメント株式会社 | 画像認識システム |
JP6939283B2 (ja) | 2017-09-05 | 2021-09-22 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP7027737B2 (ja) | 2017-09-05 | 2022-03-02 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
WO2019069599A1 (ja) * | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
JP6943340B2 (ja) * | 2018-05-29 | 2021-09-29 | 日本電気株式会社 | 物体検出装置、物体検出システム、物体検出方法、およびプログラム |
KR102316387B1 (ko) * | 2019-11-20 | 2021-10-22 | 한국항공우주연구원 | 부유물 탐지 방법 및 장치 |
CN112819509B (zh) * | 2021-01-18 | 2024-03-26 | 上海携程商务有限公司 | 自动筛选广告图片的方法、***、电子设备和存储介质 |
WO2024121999A1 (ja) * | 2022-12-07 | 2024-06-13 | 日本電信電話株式会社 | 学習装置、学習方法、及び学習プログラム |
-
2001
- 2001-10-30 JP JP2001333151A patent/JP3659914B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002203240A (ja) | 2002-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3659914B2 (ja) | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 | |
US6961466B2 (en) | Method and apparatus for object recognition | |
Tsai et al. | Vehicle detection using normalized color and edge map | |
JP6586430B2 (ja) | 車両位置の推定 | |
US20210081698A1 (en) | Systems and methods for physical object analysis | |
Khoshelham et al. | Performance evaluation of automated approaches to building detection in multi-source aerial data | |
Fisher et al. | Dictionary of computer vision and image processing | |
US8849039B2 (en) | Image processing method and system | |
US7587064B2 (en) | Active learning system for object fingerprinting | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
US20180165828A1 (en) | Object Recognition Device and Object Recognition System | |
US7747106B2 (en) | Method and system for filtering, registering, and matching 2.5D normal maps | |
CN105745687A (zh) | 情景感知移动目标检测 | |
CN113160276B (zh) | 一种目标跟踪方法、目标跟踪装置及计算机可读存储介质 | |
CN116091883A (zh) | 基于多源信息融合的目标检测识别方法、***及存储介质 | |
Flenner et al. | Resampling forgery detection using deep learning and a-contrario analysis | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
CN114627339B (zh) | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 | |
Nath et al. | On road vehicle/object detection and tracking using template | |
CN117456325A (zh) | 一种水稻病虫害检测方法 | |
CA2460615C (en) | Model-based object classification and target recognition | |
JP4711131B2 (ja) | 画素群パラメータ算出方法及び画素群パラメータ算出装置 | |
CN116052020A (zh) | 基于无人机的图像快速解译方法 | |
Vongsy et al. | Improved change detection through post change classification: A case study using synthetic hyperspectral imagery | |
CN112215873A (zh) | 用于对变电站内多目标跟踪定位的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041102 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050315 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080325 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090325 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100325 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110325 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110325 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120325 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130325 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130325 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140325 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |