JP2009251892A - オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム - Google Patents

オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム Download PDF

Info

Publication number
JP2009251892A
JP2009251892A JP2008098600A JP2008098600A JP2009251892A JP 2009251892 A JP2009251892 A JP 2009251892A JP 2008098600 A JP2008098600 A JP 2008098600A JP 2008098600 A JP2008098600 A JP 2008098600A JP 2009251892 A JP2009251892 A JP 2009251892A
Authority
JP
Japan
Prior art keywords
region
image
object detection
unit
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008098600A
Other languages
English (en)
Inventor
Yi Hu
軼 胡
Gakuhin Ko
学斌 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008098600A priority Critical patent/JP2009251892A/ja
Publication of JP2009251892A publication Critical patent/JP2009251892A/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】一対のカメラでの撮影で得られたペア画像から、人物頭部等のオブジェクトを高精度に検出する。
【解決手段】ペア画像それぞれについて抽出された候補領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、それら複数のサブ領域に渡るベクトルを算出し(ステップS33)、算出された、ペア画像のうちの第1の画像上の領域のベクトルと第2の画像上のベクトルとの間の論理上の距離を算出することにより(ステップS34)、その論理上の距離が近い領域どうしからなる領域のペアを検出する。
【選択図】 図8

Description

本発明は、互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、そのペア画像に写し出された特定種類のオブジェクト、例えば人間の頭部や人間の顔などを検出するオブジェクト検出方法およびオブジェクト検出装置、並びに、プログラムを実行する演算装置をオブジェクト検出装置として動作させるオブジェクト検出プログラムに関する。
例えば人物頭部などは、画像上に様々の寸法、多様な形状で写し出される。人間が目で見て判断するときは人物頭部であるか否かは瞬時に容易に判断できるものの、これを装置で自動的に判別させるのはかなり難しい技術である。一方、画像上の人物頭部の検出は、人物検出の重要な前処理かつ基盤技術と考えられている。特に映像監視の場合、様々な環境における人物の検出、人物の追跡、人の流れの計測を自動かつ高精度に行なうために、その前処理である人物頭部の高精度な検出を行なうことのできる技術の実用化のニーズが極めて高い状況にある。
人物頭部検出方法について従来より様々な方法が提案されているが(特許文献1〜4、非特許文献1)、これらの検出方法は、人物頭部を基本的に円や楕円と仮定して、様々な手法で円や楕円を当てはめる方法である。
例えば特許文献1には、連続2フレーム画像から時間差分と空間差分により作成した明度エッジ階層画像群に、Hough変換投票をかけて楕円を抽出することにより、人物頭部を検出する手法が開示されている。
また、特許文献2には、二つ以上のカメラで撮影された映像からまず空間距離画像を生成し、生成した空間距離画像からラベリング手法で領域を分割してオブジェクトを決め、決めたオブジェクトに円フィッティングすることにより、人物頭部を決定する手法が開示されている。
また、特許文献3には、頭部を判断する際、単なる楕円テンプレートではなく、エッジ画像のエッジ方向に垂直となる接線との接点付近の強度を小さく設定して得られたパターン(楕円の一部)を参照パターンとして比較する手法が開示されている。
さらに、特許文献4には、入力画像から抽出した人物の前景領域におけるモーメントや重心などを計算することにより、前景の一部である頭部領域を推定して、その領域の形状に基づいて、人物の頭部に当てはめる楕円を決定する方法が開示されている。
さらに、非特許文献1には、まずHough変換を用いて半円を見つけ、頭部の候補を探し出し、その候補から、輪郭線上の各点のプロフィール確率を計算することにより、その候補が頭部か否かを判定する手法が開示されている。
これらの手法は、主に限られた頭部ポーズや安定した環境に応用されているが、背景が複雑あるいは混雑が激しい場合に検出精度が低下するという課題が残る。これは、照明の変動、背景の乱れや人物の重なりにより、正確な人物頭部輪郭情報を得られないことが一つの原因である。もう一つの原因は、さまざまなヘアスタイルなど、人物頭部形状の多様性と頭部ポーズの多様性の中で、頭部を単なる円や楕円と仮定することのみによっては、その多様性に対応できないということである。従来の頭部検出手法では、店舗における監視や人流計測などに応用にとって実用に足る検出精度がまだ得られていない。
検出精度を向上させる手法の1つとして左右一対のカメラからなるステレオカメラで撮影して被写界内の人物の距離情報を得、その距離情報を基に検出精度を向上させることが考えられる(特許文献5,6参照)。ステレオカメラを用いた頭部等のオブジェクトの検出においては、そのステレオカメラで撮影して得られた左右一対の画像からオブジェクトの距離が求められるが、左右一対の画像上のオブジェクトのペアが検出されてはじめてそのオブジェクトの距離が算出されるのであって、ステレオカメラであることを利用して如何にして検出対象のオブジェクトの検出精度を向上させるかが問題となる。
この点は頭部検出に限らず、例えば顔検出でも同様であり、広く一般に、画像上に多様な形状で写し出される特定種類のオブジェクトを検出する場合に共通の課題である。
特開2004−295776号公報 特開2005−92451号公報 特開2005−25568号公報 特開2007−164720号公報 特開2007−324684号公報 特開2005−92451号公報 Jacky S.C.Yuk, Kwan−Yee K.Wong, Ronald H.Y.Chung, F.Y.L Chin, K.P.Chow,Real−time multiple head shape detection and tracking system with decentralized trackers, ISDA,2006
本発明は一対のカメラでの撮影により得られたペア画像を使ってそのペア画像に写し出された特定種類のオブジェクトを高精度に検出するオブジェクト検出方法およびオブジェクト検出装置、並びに、プログラムを実行する演算装置を、オブジェクトを高精度に検出するオブジェクト検出装置として動作させるオブジェクト検出プログラムを提供することを目的とする。
上記目的を達成する本発明のオブジェクト検出方法は、互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、そのペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出方法であって、
上記ペア画像を構成する第1および第2の各画像について、各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出ステップと、
領域抽出ステップで抽出された第1の画像上の領域と第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出ステップとを有し、
上記オブジェクト検出ステップが、
領域抽出ステップで抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、複数のサブ領域に渡るベクトルを算出するベクトル算出ステップと、
ベクトル算出ステップで算出された、第1の画像上の領域のベクトルと第2の画像上のベクトルとの間の論理上の距離を算出することにより、論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出ステップとを有することを特徴とする。
本発明のオブジェクト検出方法は、検出対象の特定種類のオブジェクトが写し込まれた領域を、第1の画像と第2の画像のそれぞれから抽出した後、それら第1の画像上の領域と第2の領域とのペアを見つけるにあたり、上記のベクトルを算出し第1および第2の画像上の双方の領域のベクトル間の論理上の距離を算出し、その距離が近い領域を見つけ出してペアとするものであり、第1の画像上の領域と第2の画像上の領域を高精度に対応づけて領域のペアを検出することができる。
ここで、本発明のオブジェクト検出方法において、上記ベクトル算出ステップが、領域抽出ステップで抽出された領域内の各画素について、画素値の勾配ベクトルを算出する勾配算出ステップと、勾配算出ステップで算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出ステップとを有し、このヒストグラム算出ステップで算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、上記のN個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するステップであることが好ましい。
例えば、各領域からこのような勾配ベクトルのヒストグラムに基づくベクトルを算出して論理上の距離算出することにより、領域のペアを高精度に検出することができる。
また、本発明のオブジェクト検出方法において、上記オブジェクト検出ステップが、領域抽出ステップで抽出された第1の画像上の領域の寸法と領域抽出ステップで抽出された第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振いステップを有し、上記距離算出ステップは、寸法着目粗振いステップで抽出された領域どうしについて、論理上の距離を算出するステップであることが好ましく、また上記オブジェクト検出ステップが、領域抽出ステップで抽出された第1の画像上の領域の、その第1の画像上の位置と、領域抽出ステップで抽出された上記第2の画像上の領域の、その第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振いステップを有し、上記距離算出ステップは、位置着目粗振いステップで抽出された領域どうしについて、論理上の距離を算出するステップであることが好ましい。
ペアとなり得る領域は、正しく検出されている限り、第1の画像から検出された領域と第2の画像から検出された領域とが極端に大きく異なった寸法の領域として検出されることはなく、また、画像上のペアになり得ない位置にペアとなるべき領域があらわれることはないため、これらの情報から粗振いすることにより、ペアの誤検出の可能性をさらに下げることができる。
さらに、本発明のオブジェクト検出方法において、上記特定種類のオブジェクトが、その特定種類のオブジェクトと比べ所定の相対的位置にある、領域抽出ステップにおいて特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、上記オブジェクト検出ステップが、距離算出ステップにより検出された領域のペアどうしの相対的位置関係に基づいて擬オブジェクトが写し出された領域のペアを排除する誤検出排除ステップをさらに有することが好ましい。
例えば人物頭部を検出対象のオブジェクトにする場合において、画像上から円あるいは楕円などの形状を検出して頭部検出を行なう場合などにおいて、その人の肩も略円形の形状として誤検出されてしまう場合がある。このような場合に、距離算出ステップでの距離計算により一旦検出された領域のペアどうし(例えば頭部のペアと肩のペアなど)の相対的位置関係(二次元的な上下左右の位置関係や距離方向の位置関係など)に基づいて擬オブジェクトが写し出された領域のペア(例えば肩のペア)を排除することにより、さらに高精度の検出が可能となる。
本発明のオブジェクト検出方法において、上記領域抽出ステップが、人物頭部が写し出された領域を抽出するステップであることが好ましく、また上記の誤検出排除ステップを有する場合、その誤検出排除ステップが、人物の肩が写し出された領域のペアを排除するステップであることが好ましい。
本発明のオブジェクト検出方法は、人物頭部を検出対象する場合に好適である。ただし、本発明のオブジェクト検出方法は、人物頭部の検出にのみ好適なものではなく、人物の顔の検出、屋外での野鳥視察用の野鳥の検出など、特定種類のオブジェクトを検出する様々な分野に適用することができるものである。
また、上記目的を達成する本発明のオブジェクト検出装置は、互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、そのペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出装置であって、
上記ペア画像を構成する第1および第2の各画像について、各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出部と、
領域抽出部で抽出された第1の画像上の領域と第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出部とを備え、
上記オブジェクト検出部が、
領域抽出部で抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、複数のサブ領域に渡るベクトルを算出するベクトル算出部と、
ベクトル算出部で算出された、第1の画像上の領域のベクトルと第2の画像上のベクトルとの間の論理上の距離を算出することにより、論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出部とを備えたことを特徴とする。
ここで、本発明のオブジェクト検出装置において、上記ベクトル算出部が、領域抽出部で抽出された領域内の各画素について、画素値の勾配ベクトルを算出する勾配算出部と、勾配算出部で算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出部とを備え、このヒストグラム算出部で算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、上記のN個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するものであることが好ましい。
また、本発明のオブジェクト検出装置において、上記オブジェクト検出部が、領域抽出部で抽出された第1の画像上の領域の寸法と領域抽出部で抽出された第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振い部を備え、上記距離算出部は、寸法着目粗振い部で抽出された領域どうしについて、論理上の距離を算出するものであることが好ましく、上記オブジェクト検出部が、領域抽出部で抽出された第1の画像上の領域の、その第1の画像上の位置と、領域抽出部で抽出された第2の画像上の領域の、その第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振い部を備え、上記距離算出部は、位置着目粗振い部で抽出された領域どうしについて、前記論理上の距離を算出するものであることも好ましい形態である。
さらに、本発明のオブジェクト検出装置において、上記特定種類のオブジェクトが、その特定種類のオブジェクトと比べ所定の相対的位置にある、領域抽出部において該特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、上記オブジェクト検出部が、距離算出部により検出された領域のペアどうしの相対的位置関係に基づいて擬オブジェクトが写し出された領域のペアを排除する誤検出排除部をさらに備えたことが好ましい。
本発明のオブジェクト検出装置において、上記領域抽出部が、人物頭部が写し出された領域を抽出するものであることが好ましくその場合において、上記の誤検出排除ステップを有する場合、その誤検出排除部が、人物の肩が写し出された領域のペアを排除するものであることが好ましい。
また、上記目的を達成する本発明のオブジェクト検出プログラムは、プログラムを実行する演算装置内で実行され、該演算装置を、互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、そのペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出装置として動作させるオブジェクト検出プログラムであって、
上記演算装置を、
上記ペア画像を構成する第1および第2の各画像について、各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出部と、
領域抽出部で抽出された第1の画像上の領域と第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出部とを有し、
上記オブジェクト検出部が、
領域抽出部で抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、複数のサブ領域に渡るベクトルを算出するベクトル算出部と、
ベクトル算出部で算出された、第1の画像上の領域のベクトルと第2の画像上のベクトルとの間の論理上の距離を算出することにより、論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出部とを有するオブジェクト検出装置として動作させることを特徴とする。
ここで本発明のオブジェクト検出プログラムにおいて、上記演算装置を、上記ベクトル算出部が、領域抽出部で抽出された領域について、その領域内の各画素について画素値の勾配ベクトルを算出する勾配算出部と、勾配算出部で算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出部とを有し、
上記ヒストグラム算出部で算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、上記のN個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するものであるオブジェクト検出装置として動作させることが好ましい。
また、本発明のオブジェクト検出プログラムにおいて、上記演算装置を、上記オブジェクト検出部が、領域抽出部で抽出された第1の画像上の領域の寸法と領域抽出部で抽出された第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振い部を有し、上記距離算出部が、寸法着目粗振い部で抽出された領域どうしについて、論理上の距離を算出するものであるオブジェクト検出装置として動作させることが好ましく、上記演算装置を、上記オブジェクト検出部が、領域抽出部で抽出された第1の画像上の領域の、その第1の画像上の位置と、領域抽出部で抽出された第2の画像上の領域の、その第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振い部を有し、上記距離算出部は、位置着目粗振い部で抽出された領域どうしについて、論理上の距離を算出するものであるオブジェクト検出装置として動作させることも好ましい形態である。
さらに、本発明のオブジェクト検出プログラムにおいて、上記特定種類のオブジェクトが、その特定種類のオブジェクトと比べ所定の相対的位置にある、領域抽出部において、該特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、上記演算装置を、上記オブジェクト検出部が、距離算出部により検出された領域のペアどうしの相対的位置関係に基づいて擬オブジェクトが写し出された領域のペアを排除する誤検出排除部をさらに有するオブジェクト検出装置として動作させることが好ましい。
本発明のオブジェクト検出プログラムにおいて、上記演算装置を、上記領域抽出部が、人物頭部が写し出された領域を抽出するものであるオブジェクト検出装置として動作させることが好ましく、また、上記演算装置を上記の誤検出排除部を有するオブジェクト検出装置として動作させるオブジェクト検出プログラムの場合、その演算装置を、上記領域抽出部が人物頭部が写し出された領域を抽出するものであり、上記誤検出排除部が人物の肩が写し出された領域のペアを排除するものであるオブジェクト検出装置として動作させることが好ましい。
以上の本発明によれば、一対のカメラでの撮影により得られたペア画像を使ってそのペア画像に写し出された特定種類のオブジェクトを高精度に検出することができる。
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態が組み込まれた監視カメラシステムの概略構成図である。
図1に示す監視カメラシステム1の概略構成図には、左右一対の監視カメラ10R,10Lと、本発明にいうオブジェクト検出装置の一実施形態である頭部検出装置として動作するパーソナルコンピュータ20とが示されている。
監視カメラ10R,10Lは、例えば店舗に設置されたものであって、店内の様子を撮影するものである。この監視カメラ10R,10Lは、動画像を表す画像データをパーソナルコンピュータ20に向けて送信する。尚、以下では、データ上の画像も単に「画像」と称する。
パーソナルコンピュータ20は、監視カメラ10R,10Lから送信される動画像を受け取る。また、このパーソナルコンピュータ20は、監視カメラ10R,10Lで撮影された動画像を一括管理するものである。
ここで、一対の監視カメラ10R,10Lの撮影レンズ(図示せず)の焦点距離fは、双方とも同一であり、互いに距離Bだけ離れた位置に設置されているものとする。このとき、監視カメラ10R,10Lから被写体Oまでの距離zは、以下のようにして求められる。
図2は、図1に示す一対の監視カメラ10R,10Lに写し出された画像の模式図である。
ここでは、一対の監視カメラ10R,10Lで撮影して得た、同一シーンの同時刻の画像上で同一の被写体が画像上の距離dだけ異なる位置に写し出されているものとする。このとき、一対の監視カメラ10R,10Lからその被写体までの距離zは、
Figure 2009251892
により算出される。
ただし、左右一対の画像上でペアとなるべき被写体が確定してはじめて、画像上の距離dが求められ、したがって、左右一対の画像上でペアとなるべき被写体が確定してはじめて、(1)式に基づく距離zを算出することができる。
図3は、図1に1つのブロックで示すパーソナルコンピュータ20の外観斜視図、図4は、そのパーソナルコンピュータ20のハードウエア構成図である。
ここでは、このパーソナルコンピュータ20のハードウエアおよびOS(Operating System)と、このパーソナルコンピュータ20にインストールされて実行される頭部検出プログラムとにより、本発明の一実施形態としての頭部検出装置が構成されている。
このパーソナルコンピュータ20は、外観構成上、本体装置21、その本体装置21からの指示に応じて表示画面22a上に画像を表示する画像表示装置22、本体装置21に、キー操作に応じた各種の情報を入力するキーボード23、および、表示画面22a上の任意の位置を指定することにより、その指定時にその位置に表示されていた、例えばアイコン等に応じた指示を入力するマウス24を備えている。この本体装置31は、外観上、光磁気ディスク(MO)を装填するためのMO装填口21a、およびCDやDVDを装填するためのCD/DVD装填口21bを有する。
本体装置21の内部には、図4に示すように、各種プログラムを実行するCPU281、ハードディスク装置283に格納されたプログラムが読み出されCPU281での実行のために展開される主メモリ282、各種プログラムやデータ等が保存されたハードディスク装置283、MO291が装填されてその装填されたMO291をアクセスするMOドライブ284、CDやDVD(ここでは区別せずにCD/DVDと称する)が装填され、その装填されたCD/DVD292をアクセスするCD/DVDドライブ285、および図1に示す監視カメラ10R,10Lでの撮影により得られた動画像を受信するインターフェース286が内蔵されている。これらの各種要素と、さらに図3にも示す画像表示装置22、キーボード23、およびマウス24は、バス287を介して相互に接続されている。
ここで、CD/DVD292には、このパーソナルコンピュータを頭部検出装置として動作させるための頭部検出プログラムが記憶されており、そのCD/DVD292は、CD/DVDドライブ285に装填され、そのCD/DVD292に記憶された頭部検出プログラムがこのパーソナルコンピュータ20にアップロードされてハードディスク283に格納される。このハードディスク装置283に格納された頭部検出プログラムは、このハードディスク装置283から読み出され主メモリ282上に展開されてCPU281で実行されることにより、このパーソナルコンピュータ20が頭部検出装置として動作する。
また、ハードディスク装置283には、頭部検出プログラムの他にも、画像表示装置22の表示画面22aの上に画像を表示し、オペレータの操作に応じて、その画像を縦横独立に変倍したり回転したり一部を切り出したりなど、その画像に様々な画像処理を施すための画像処理プログラムや、後述するような機械学習を行なってフィルタを抽出するためプログラムなど、後述する装置を実現するための各種の支援プログラムも格納されている。
図5は、図1〜図3に示すパーソナルコンピュータ20を利用して実施される頭部検出方法の一例を示すフローチャートである。
この図5に示す頭部検出方法は、領域抽出ステップS20と頭部検出ステップS30を有する。
図6は、図5に示す頭部検出方法の説明図である。
先ず、左右一対の監視カメラ10L,10Rのそれぞれで得られた画像に基づいて、頭部が写し出されている領域が抽出される(図5に示すフローチャートの領域抽出ステップS20)。
この図6には、左カメラ10Lでの撮影で得られた画像21Lと右カメラ10Rでの撮影で得られた画像21Rが示されている。これら2枚の画像21L,21Rは、左右の監視カメラ10L,10Rでの撮影により得られた、同じシーン、同一時刻の画像である。
領域抽出ステップS20では、画像21L,21R上に枠を示したような、頭部が写し出されている領域(LCH,LCH,…,LCH;RCH,RCH,…,RCH)が抽出される。ただし、必ずしも頭部のみではなく、肩や、その他、この領域抽出ステップS10における領域抽出アルゴリズムに応じた誤検出の領域も抽出される。
そこで、次に、図5に示すフローチャートの頭部検出ステップS30において、一対の画像21L,21Rを使って、後述するようにして領域どうしのペアPが検出される。
この図6では、一旦ペアが検出され、その後、領域のペアどうしを比較して誤検出のペアが排除され、最終的に監視カメラ10L,10Rからの距離z(図1参照)も含めた人物頭部の寸法および三次元位置20が検出される。
図7は、図5に示す頭部検出方法のうちの領域抽出ステップS20の詳細フローを示した図である。
図5に示す領域抽出ステップS20は、後述する学習方法によって抽出された各種のフィルタを使って、検出対象の原画像から人物頭部が写し出された領域を自動検出するステップであり、画像群生成ステップS21、輝度補正ステップS22、差分画像作成ステップS23、段階的検出ステップS24、および領域統合ステップS25から構成され、段階的検出ステップS24は、さらに、一次評価値算出ステップS241、二次評価値算出ステップS242、および領域抽出ステップS243と、それらの各ステップS241,S242,S243の繰り返しが終了したか否かを判定する判定ステップS244とから構成されている。
この領域抽出ステップS20における領域抽出処理は、図1に示す左右一対の監視カメラ10L,10Rから得られたそれぞれの画像について、左右をペアにすることなく独立に行なわれる処理である。この領域抽出ステップS20の詳細説明は後に譲る。
図8は、図5に示す頭部検出方法のうちの頭部検出ステップS30の詳細フローを示した図である。
図5に示す頭部検出ステップS30における頭部検出処理は、図1に示す左右一対の監視カメラ10L,10Rで得られた画像のペアを使って行なわれる処理である。
この頭部検出ステップS30は、図5に示すように、寸法着目粗振いステップS31、位置着目粗振いステップS32、ベクトル算出ステップS33、距離算出ステップS34および誤検出排除ステップS35から構成され、ベクトル算出ステップS33は、さらに、勾配算出ステップS331およびヒストグラム算出ステップS332を有する。この頭部検出ステップS30についての詳細説明も後述する。
図9は、頭部検出装置の一例を示すブロック図である。この頭部検出装置100は、図3〜図4に示すパーソナルコンピュータ20内にアップロードされた頭部検出プログラムがパーソナルコンピュータ20内で実行されることによりそのパーソナルコンピュータ20内に実現されるアルゴリズムであり、領域抽出部200と頭部検出部300とから構成されている。
図5に示す頭部検出方法との対比では、領域抽出部200が領域抽出ステップS20に対応し、頭部検出部300が領域検出ステップS30に対応する。
図10は、図9に示す頭部検出装置のうちの領域抽出部200の詳細ブロック図である。
この図10に示す領域抽出部200は、画像群生成部210、輝度補正部220、差分画像作成部230、段階的検出部240、領域統合部250、フィルタ記憶部260、および領域抽出演算制御部270を有する。このうちの段階的検出部240は、さらに、一次評価値算出部241、二次評価値算出部242、および領域抽出部243から構成されている。
図7に示す領域抽出ステップとの対比では、図10の領域抽出部200の全体が図7の領域抽出ステップS20の全体に相当し、画像群生成部210が画像群生成ステップS21に相当し、輝度補正部220が輝度補正ステップS22に相当し、差分画像作成部230が差分画像作成ステップS23に相当し、段階的検出部240と領域抽出演算制御部270とを合わせた構成が段階的検出ステップS24に相当し、領域統合部250が領域統合ステップS25に相当する。また、フィルタ記憶部260は、後述する学習方法により抽出された各種のフィルタ(後述する)を格納しておく記憶部である。
また、段階的検出部240を構成する一次評価値算出部241、二次評価値算出部242、および領域抽出部243は、それぞれ図4に示す頭部検出方法のうちの段階的検出ステップS24を構成する一次評価値算出ステップS241、二次評価値算出ステップS242、および領域抽出ステップS243に相当し、領域抽出演算制御部270は、段階的検出ステップS24を構成する判定ステップS244に相当する。
尚、パーソナルコンピュータ20内で頭部検出プログラムが実行されたときの頭部検出プログラムの作用は、図5に示す頭部検出装置の作用と同一であり、ここでは、頭部検出プログラムを取り上げての図示および説明は省略する。
以下では、図10に示す領域抽出部200の各部の作用について概括的に説明する。この説明により頭部検出プログラムのうちの領域抽出部に対応するプログラム部品および頭部検出方法のうちの図5に示す領域抽出ステップS20を構成する、図7に示す各ステップS21〜S25の説明を兼ねるものとする。
フィルタ記憶部260には、後述する学習により抽出された多数のフィルタが格納されている。これらのフィルタは、画像上の二次元的に広がる所定の広さの領域に作用し人物頭部の輪郭および内部のうちの互いに異なるいずれかの特徴量を算出するフィルタであり、これらのフィルタには、それらのフィルタそれぞれにより算出される各特徴量と人物頭部である確率を表わす一次評価値との対応関係が対応づけられてフィルタ記憶部260に格納されている。さらにこれらのフィルタは、画像上の領域の広さに対応する画素数が縦横それぞれ1/2の比率で段階的に異なる、複数(ここでは画素数で32×32、16×16、および8×8)の広さの領域にそれぞれ作用する、1つの広さごとに複数のフィルタから構成されている。
画像群生成部210では、入力されてきた原画像を構成する画素が縦横それぞれ1/2の比率で段階的に間引かれ、原画像と何枚かの間引画像とからなる画像群が生成される。さらに、この画像群生成部210では、1/2の比率で原画像を間引いて生成した画像群のほか、さらに、その原画像に補間演算を施すことにより、その原画像を含む画像群を構成する、その原画像を縦横1/2の比率で間引いて得られた間引画像(画素数は原画像の1/4(縦横それぞれ1/2))の画素数よりも多く、かつ原画像の画素数よりも少ない画素数の範囲内の補間画像が生成され、生成された補間画像について、その補間画像を構成する画素を上記の縦横1/2の比率で段階的に間引くことにより、その補間画像とその補間画像の画素を間引いて得られた間引画像とからなる新たな画像群が生成される。
また、輝度補正部220は、画像上の1つの画素を注目画素としたとき、その注目画素を含むある領域内に存在する複数の画素の画素値(輝度値)の平均値と分散を用いてその注目画素の画素値(輝度値)を補正する輝度補正処理を、画像上の各画素をそれぞれ注目画素として画像全体に亘って行なうものである。この輝度補正処理は、画像群生成部210から受け取った画像群を構成する各画像それぞれについて行なわれる。
この輝度補正部220における輝度補正処理は、画素によって輝度が大きくばらつく画像を頭部検出対象の画像とする場合に、頭部検出精度の向上に役立つものであり、本実施形態はこの輝度補正部220を備えているが、本発明では必ずしも必要な処理ではない。
また差分画像作成部230は、図1に示す監視カメラ10からの動画像を入力し、隣接するフレームの差分画像を作成して、その差分画像を、段階的検出部230に渡す役割りを担っている。
ここで、段階的検出部230には、輝度補正部220で輝度補正された後の画像が直接に入力されるとともに、さらに、輝度補正部220で輝度補正された画像が差分画像作成部230に入力され、その差分画像作成部230で作成された差分画像も入力される。これは、頭部検出対象の画像として、1枚1枚の静止画像を利用するとともに、差分画像を利用することによって人物頭部の動きの情報も利用して、高精度な頭部検出を行なうためである。
段階的検出部240では、先ず一次評価値算出部241により、頭部検出対象の画像上の各領域に複数のフィルタを作用させて複数の特徴量を算出し各フィルタに対応づけられている上述の対応関係(フィルタにより算出される特徴量と人物頭部である確率を表わす一次評価値との対応関係)に基づいて、各特徴量に対応する各一次評価値が求められる。次に、二次評価値算出部242により、一次評価値算出部241で求められた、複数のフィルタに対応する複数の一次評価値を、例えば加算、平均値算出等の演算を用いて総合することにより、その領域に人物頭部が存在する確率を表わす二次評価値が求められる。次いで領域抽出部243では、二次評価値算出部242で求められた二次評価値と閾値とが比較され、閾値を越えて人物頭部が存在する確率が高い領域が抽出される。
この段階的検出部240では、領域抽出演算制御部270のシーケンス制御を受けて、一次評価値算出部241、二次評価値算出部242、および領域抽出部243が繰り返し動作し、最終的に極めて高い確率で人物頭部が写し出された領域が抽出される。領域抽出演算制御部270は、段階的検出部240を構成する一次評価値算出部241、二次評価値算出部242、および領域抽出部243の動作を以下のように制御する。
領域抽出演算制御部270は、先ず、一次評価値算出部241に、画像群生成部210により生成された画像群のうちの相対的に小さい第1の画像にフィルタ記憶部260に記憶された多数のフィルタのうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、前述した対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、二次評価値算出部242に、一次評価値算出部241で求められた、複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、その領域に人物頭部が存在する確率を表わす二次評価値を求めさせ、領域抽出部243に、二次評価値算出部242で求められた二次評価値と第1の閾値とを比較させてその第1の閾値を越えて人物頭部が存在する確率が高い一次候補領域を抽出させる第1の抽出過程を実行させる。
次に、再び一次評価値算出部241に、画像群生成部210により生成された画像群のうちの上記の第1の画像よりも画素数が一段階多い第2の画像の、一次候補領域に相当する領域にフィルタ記憶部260に記憶されたフィルタ群のうちの上記の複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、前述した対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び二次評価値算出部242に、一次評価値算出部241で求められた、複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、その一次候補領域に人物頭部が存在する確率を表わす二次評価値を求めさせ、再び領域抽出部243に、二次評価値算出部242で求められた二次評価値と第2の閾値とを比較させて第2の閾値を越えて人物頭部が存在する確率が高い二次候補領域を抽出させる第2の抽出過程を実行させる。
領域抽出演算制御部270は、以上のような第1の抽出過程および第2の抽出過程を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、一次評価値算出部241、二次評価値算出部242、および領域抽出部243に繰り返させる。
図9の頭部検出装置100の領域抽出部200では、この繰り返しにより、最終的に、人物頭部が写し出された領域がかなり高精度に抽出される。
ここで、前述したように、画像群生成部210では、補間演算と間引演算とにより1枚の原画像から複数の画像群が生成されるが、領域抽出演算制御部270は、画像群生成部210で生成された複数の画像群(差分画像作成部230では差分画像の画像群が作成されるが、この差分画像作成部230で作成された差分画像の画像群を含む)それぞれに関し、上記の複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、一次評価算出部241、二次評価算出部242、および領域抽出部243に繰り返させる。
これにより、様々の寸法の人物頭部を検出することができる。
ここで、領域抽出部243からは、例えば、画像上の人物の顔をほぼ中心に含む第1の領域と、同じ画像上の同じ人物の、髪を含んだ頭部をほぼ中心に含む、上記の第1の領域と比べると一部が重なり一部が外れた第2の領域との双方が人物頭部の領域として抽出されることがある。そこで、図9の頭部検出装置100の領域抽出部200は、領域統合部250を備え、このような場合に1つの領域に統合する処理を行なっている。具体的には、領域抽出部243で複数の領域が検出された場合におけるそれら複数の領域を、それら複数の領域どうしの重なりの程度に応じて、1つの領域に統合する。更なる詳細については後述する。
図11は、図9に示す頭部検出装置のうちの頭部検出部300の詳細ブロック図である。
この図11に示す頭部検出部300は、寸法着目粗振部310、位置着目粗振部320、ベクトル算出部330、ベクトル算出部340および誤検出排除部350を有する。このうちのベクトル算出部330は、さらに勾配算出部331およびヒストグラム算出部332を有する。
図8に示す頭部抽出ステップを構成する各ステップとの対比では、図11に示す頭部検出部300の全体が図5に示す頭部抽出ステップS30の全体、すなわち図8に示すフローチャートの全体に対応し、寸法着目粗振部310、位置着目粗振部320、ベクトル算出部330、距離算出部340および誤検出排除部350が、それぞれ、寸法着目粗振いステップS31、位置着目粗振いステップS32、ベクトル算出ステップS33、距離算出ステップS34および誤検出排除ステップS35に対応する。また、ベクトル算出部330を構成する勾配算出部331およびヒストグラム算出部332は、それぞれベクトル算出ステップS33を構成する勾配算出ステップS331およびヒストグラム算出ステップS332に対応する。
以下では、図11に示す頭部検出部300の各部の作用について概括的に説明する。この説明により、頭部検出プログラムのうちの頭部検出部に対応するプログラム部品および頭部検出方法のうちの頭部検出ステップ(図8参照)の説明を兼ねるものとする。
図11に示す頭部検出部300は、領域抽出部200(図9、図10参照)で、左右一対の監視カメラ10L,10R(図1参照)で得られたペア画像1枚1枚について、頭部と思われる特徴のある形態が写し出された領域が抽出された後に実行されるものであり、ここでは先ず寸法着目粗振部310において、領域抽出部200で抽出された左カメラの画像上の領域の寸法と、同じく領域抽出部200で抽出された右カメラの画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域が抽出される。
また、位置着目粗振い部320では、領域抽出部200で抽出された左カメラの画像上の領域の、その左カメラの画像上の位置と、同じく領域抽出部200で抽出された右カメラの画像上の領域の、その右カメラの画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域が抽出される。ベクトル算出部330では、上記のような粗振いにより残った領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、それら複数のサブ領域に渡るベクトルが算出される。具体的には、このベクトル算出部330を構成する勾配算出部331において、1つの領域内の各画素について画素値の勾配ベクトルが算出され、ヒストグラム算出部332において、勾配ベクトル算出部331で算出された勾配ベクトルを用いて、1つの領域をN個(後述する具体例では縦4×横4=16個)のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向(後述する具体例では0°,45°,90°,135°,180°,225°,270°,315°の8方向)ごとの、勾配の大きさのヒストグラムが算出され、このヒストグラム算出部332で算出された、1つのサブ領域につきM段階(8段階)の勾配方向それぞれの大きさの、N個(16個)のサブ領域に渡る、1つの領域につきM×N個(8×16=128個)の要素からなる1つのベクトルが算出される。距離算出部340では、ベクトル算出部330で算出された、左カメラの画像上の領域のベクトルと右カメラの画像上のベクトルとの間の論理上の距離Dが算出され、この距離Dが短かい領域どうしがペアとして検出される。
この論理上の距離Dは、2つのベクトルVL,VRを
VL=(eL,eL,…,eL128
VR=(eR,eR,…,eR128
としたとき、
Figure 2009251892
で表わされる。
さらに誤検出排除部350では距離算出部340により検出された領域のペアどうしの相対的位置関係に基づいて擬オブジェクト(ここでは主に人物の肩)が写し出された領域のペアが排除される。
このようにして、この頭部検出部300では、左カメラの画像と右カメラの画像とを用いて、画像上の人物頭部が写し出された領域が高精度に検出される。
次に本発明の実施形態をさらに具体的に説明する。
ここでは、先ず、本発明の実施形態とは一旦離れ、フィルタの学習方法について説明し、次いで、図9に示す頭部検出装置200のうちの領域抽出部200(図10参照)の詳細を説明し、さらにその後、頭部検出部300(図11参照)の詳細を説明する。
図12は、頭部検出のためのフィルタの学習方法の詳細フロー図である。
この図12は、上下2段に示されており、上段は差分をとる前の静止画像1枚1枚を取り扱うフローであり、下段は、差分画像を取り扱うフローである。
ここでは先ず教師画像を作成するための多数の画像400が用意される。これらの多数の画像400は、多数枚の静止画像401と、差分画像作成のための動画像402からなる。動画像402の1枚1枚を静止画像401として利用してもよい。これらの画像400は、頭部検出用の原画像の撮影を行なう一対の監視カメラ10L,10R(図1参照)での撮影により得ることが好ましいが、それに限られるものではなく、監視カメラ10L,10Rによる撮影とは別に、人物が存在する様々なシーン、および人物が存在しない様々なシーンの画像を収集したものであってもよい。
これらの画像400には、アフィン(Affine)変換処理410、多重解像度展開処理420、輝度補正処理430がこの順に施され、動画像402からは差分演算処理440により差分画像が生成され、その後、切出し処理450により教師画像451が生成される。この教師画像451は、1つのシーンにつき、32×32画素の教師画像と、16×16画素の教師画像と、8×8画素の教師画像とからなる教師画像群からなり、多数のシーンについてそれぞれ教師画像群が生成される。
以下、先ず、ここまでの各処理について説明する。
アフィン変換処理410は、極めて多数の画像を収集することに代えて、1枚の画像を少しずつ変形して多数枚の画像を生成し、これにより、教師画像の基になる画像の数を増やす処理である。ここでは、元々の1枚の画像を−12°、−6°、0°、+6°、+12°だけそれぞれ傾けた画像を作成し、さらに縦方向に1.2倍、1.0倍、0.8倍に伸縮した画像、さらに横方向に1.2倍、1.0倍、0.8倍に伸縮した画像を作成する。これらのうち、傾き0°、縦方向1.0倍、かつ横方向1.0倍の画像は元々の画像そのものである。これらの傾きや伸縮を組み合わせ、元々の1枚の画像から元々の1枚の画像を含め、5×3×3=45枚の画像が作成される。こうすることにより極めて多数の教師画像が作成され、高精度な学習が可能となる。
次に多重解像度展開処理420について説明する。
図13は、多重解像度展開処理の説明図である。
ここには、人物の頭部が写し出されており、既に教師画像のイメージとなっているが、図12の多重解像度展開処理420では教師画像として切り出す前の画像全体について以下に説明する処理が行なわれる。
すなわち、図13(A)に示す元の1枚の画像全体をLとし、その画像Lから縦横それぞれ1つおきに画素を間引くことにより縦横それぞれ1/2(面積で1/4)に縮小された画像Lを作成し、これと同様に、画像Lから縦横それぞれ1つおきに画素を間引くことにより縦横それぞれについてさらに1/2(面積でさらに1/4)に縮小された画像Lを作成する。図13(B)には、このようにして作成された、元々の画像Lを含む3枚の画像L,L,Lからなる画像群が逆ピラミッド構造で示されている。
次に、輝度補正処理430が行なわれる。
この輝度補正処理430では、補正前の画素Xの画素値(輝度値)をXorg、補正後の輝度をXcorとしたとき、
Figure 2009251892
但し、E(Xorg)、σ(Xorg)は、画素Xの近傍(例えば9×9画素)の画素値(輝度値)の、それぞれ平均値と分散である。
に従って補正後の画素値(輝度値)が求められ、この処理を画像全域について行なうことにより輝度補正が行なわれる。
この輝度補正は、図13(B)に示す3層の画像L,L,Lのそれぞれについて行なわれる。すなわち、下層の画像L側の画像ほど、元々の画像のシーンからすると広い領域のシーンを利用した輝度補正が行なわれることになる。
次に、動画像について差分処理440が行なわれる。
図14は、動画像の差分処理の説明図である。
図14(A)には、動画像のうちの隣接する2つのフレームの画像が示されており、これら2枚の画像からは、多重解像度展開処理420により、それぞれが3枚の画像L,L,L;L′,L′,L′からなる2つの画像群が作成される(図14(B))。
これら2つの画像群を構成する各画像L,L,L;L′,L′,L′には、輝度補正処理430が施された後、差分処理440が行なわれる。
この差分処理440では、同じ寸法の画像について、対応する画素ごとの差分値の絶対値が求められ(|L′−L|、i=0,1,2)、図14(C)に示す3枚の差分画像からなる逆ピラミッド型の画像群が作成される。
次に切出処理450が行なわれる。
この切出処理450は、図13(B)や図14(C)に示すような3層構造の画像から、様々な形態の人物頭部が写し出された領域や人物頭部以外のものが写し出された領域が切り出され、人物頭部が写し出されている領域からは人物頭部が存在する、という教師画像、人物頭部以外のものが写し出されている領域からは人物頭部は存在しない、という教師画像が作成される。
教師画像を切り出すにあたっては、図13(B)あるいは図14(C)に示す三層構造の画像のうちの最上層の画像から32×32画素の領域が教師画像として切り出され、これを受けて二層目の画像からは同一部分の16×16画素の領域が切り出され、三層目の画像からは同一部分の8×8画素の領域が切り出される。これら切り出された三層の教師画像は、画像の寸法が異なることにより分解能は異なるものの、画像上の同一部分が切り出されたものである。したがって、教師画像も、図13(B)や図14(C)に示すような、三層構造の逆ピラミッド型の教師画像群となる。
ここでは、このような三層構造の教師画像群451が多数作成され、学習に用いられる。
次に、それらの教師画像により学習される側のフィルタについて説明する。
図15は、フィルタの構造の説明図、図16は各種のフィルタを図解して例示した図である。
ここには多数種類のフィルタが用意される。これらのフィルタは、画像上の32×32画素の領域に作用するフィルタと、画像上の16×16画素の領域に作用するフィルタと、画像上の8×8画素の領域に作用するフィルタとに分けられる。これらのフィルタは、学習により抽出されるまでは頭部検出に用いるためのフィルタの候補の地位にある。これらのフィルタ候補のうちの32×32画素の領域に作用するフィルタ候補は図15(A)に示す三層構造の教師画像群のうちの32×32画素の教師画像による学習で選別されて頭部検出に採用すべきフイルタが抽出され、これと同様に、多数のフィルタ候補のうちの16×16画素の領域に作用するフィルタ候補は三層構造の教師画像群のうちの16×16画素の教師画像による学習で選別されて頭部検出に採用すべきフィルタが抽出され、さらに、多数のフィルタ候補のうちの8×8画素の領域に作用するフィルタ候補は、三層構造の教師画像群のうちの8×8画素の教師画像により選択されて頭部検出に採用すべきフィルタが抽出される。
図15(B)に示すように、1つのフィルタは、タイプと、層と、6つの画素座標{pt,pt,pt,pt,pt,pt}の属性を持ち、それら6つの画素座標にある画素の画素値(輝度値)をそれぞれ、Xpt0,Xpt1,Xpt2,Xpt3,Xpt4,Xpt5としたとき、
Figure 2009251892
なる演算により、3つの差分値のベクトルが算出される。
「タイプ」は、図16にタイプ0〜タイプ8を示すような、大分類を表わしている。例えば、図16左上のタイプ0は、横方向(θ=0°)の方向の差分をとるフィルタであることを表わしており、タイプ1は、縦方向(θ=±90°)の方向の差分をとるフィルタであることを表わしており、タイプ2〜4は、そのタイプごとの方向の差分をとるフィルタであることを表わしている。タイプ5〜8は、図示のような差分演算により各曲線のエッジを検出するフィルタであることを表わしている。また、「層」は、32×32画素の領域に作用するフィルタであるか、16×16画素の領域に作用するフィルタであるか、8×8画素の領域に作用するフィルタであるかの識別標識である。
さらに、6つの画素座標{pt,pt,pt,pt,pt,pt}は、例えば8×8画素の領域に作用する場合の8×8=64画素のうちの6つの画素の座標を指定するものである。16×16画素の領域に作用するフィルタ、32×32画素の領域に作用する画素の場合も同様である。
上記(4)式による演算は、6つの画素座標{pt,pt,pt,pt,pt,pt}で指定される6つの画素について行なわれ、例えば、図16の左上のタイプ0のうちのさらに最上段のフィルタの場合は、数値0を付した画素の輝度値をX、数値1を付した画素の輝度値をX、数値2を付した画素(ここでは、数値2を付した画素は数値1を付した画素と同一の画素である)の輝度値をX(=X)、数値3を付した画素の輝度値をX、数値4を付した画素(ここでは数値4を付した画素は数値1を付した画素と同一である)の輝度値をX(=X)、数値5を付した画素の輝度値をXとしたとき、
Figure 2009251892
となる。
タイプ5の左側のフィルタにも数値0〜5を付してあり、(5)式と同じ演算が行なわれる。
これらは例示であり、図16に示す各種のフィルタは、これらの例示と同様の演算を行なうフィルタである。
図12に示すように、教師画像群451が作成されると機械学習により、多数のフィルタ候補の中から、頭部検出に採用されるフィルタ470が抽出される。
次に、機械学習について説明する。
図17は、機械学習の概念図である。
これまで説明してきたようにして、多数の教師画像群451が用意されるとともに、多数のフィルタ候補460が用意され、先ずは、それらの教師画像群451のうちの8×8画素の多数の教師画像451Aを使って8×8画素の領域に作用するフィルタ候補460Aの中から頭部検出に用いられるフィルタ470Aが抽出され、次にその抽出結果を反映させながら、16×16画素の多数の教師画像451Bを使って16×16画素の領域に作用するフィルタ候補460Bの中から頭部検出に用いられるフィルタ470Bが抽出され、さらに、その抽出結果を反映させながら、32×32画素の多数の教師画像451Cを使って、32×32画素の領域に作用するフィルタ候補460Cの中から頭部検出に用いられるフィルタ470Cが抽出される。
ここでは、機械学習の一例としてAba Boostアルゴリズムが採用されている。このアルゴリズムは既に広範な分野で採用されているものであり、以下では簡単に説明する。
図18は、教師画像の概念図である。
ここでは、8×8画素の多数枚の教師画像a,b,c,…,mが用意されているものとする。これらの教師画像には、頭部である教師画像と、頭部ではない教師画像が含まれている。
図19は、各種フィルタとそれらのフィルタの学習結果を示す概念図である。
ここでは、8×8画素の領域に作用する多数種類のフィルタ(この段階ではフィルタ候補)a,b,…,nが用意され、図18に示す多数枚の教師画像を用いて各フィルタa,b,…,nについてそれぞれ学習が行なわれる。
図19に示す各グラフは、各フィルタについての学習結果を示している。
各フィルタでは、(4)式に示すような三次元ベクトルからなる特徴量が算出されるが、ここでは簡単のため一次元の特徴量として示している。
各グラフの横軸は、そのフィルタを使って多数枚の教師画像それぞれについて求めた特徴量の値、縦軸は、そのフィルタを使ったときの頭部である、という正答率を表わしている。この確率は前述した一次評価値として利用される。
ここでは、各フィルタa,b,…,nについてそれぞれ一回目の学習を行なった結果、図19に示すような学習結果が表われ、フィルタnを使ったときの正答率が最高であったとする。この場合、先ずはフィルタnを頭部検出用のフィルタとして採用し、2回目の学習はフィルタnを除く他のフィルフタa,b,…について行なわれる。
図19(C)に示すように、各教師画像a,b,c,…,mについての一次評価値がx,y,z,zであったとする。
図20は、教師画像の重み付けを示す説明図である。
一回目の学習では、全ての教師画像a,b,c,…,mについて同一の重み1.0で学習が行なわれるが、2回目の学習では、各教師画像a,b,c,…,mは1回目の学習で最高の正答率を得たフィルタnによる各教師画像ごとの確率x,y,z,zが加味され、正しく判定される確率が高い教師画像ほど重みを下げ、誤って判定される確率の高い教師画像ほど大きな重みが与えられる。この重みは、二回目の学習の各教師画像ごとの正答率に反映される。すなわち、この重みは2回目の学習において、各教師画像をその重みの回数だけ繰り返して学習に利用することと同じである。このようにして2回目の学習を行ない、2回目の学習で最高の正答率を得たフィルタ候補が頭部検出用のフィルタとして抽出される。さらに、その抽出されたフィルタの特徴量の正答率のグラフを利用して各教師画像a,b,c,…,mについての重みが再度修正され、今回抽出されたフィルタを除く、さらに残ったフィルタについて学習が行なわれる。以上が繰り返されて、頭部検出用の、8×8画素の領域に作用する多数のフィルタ470A(図17参照)が抽出される。
図21は、8×8画素用のフィルタの抽出が終了し、16×16画素のフィルタの学習への移行時の重み付け方法の説明図である。
8×8画素のフィルタの抽出が終了した後、それらのフィルタと、それらのフィルタを1つずつ独立に使ったときの、特徴量と一次評価値との対応関係(例えば図19に示すグラフ)が求められ、1つ1つの教師画像(例えば教師画像a)について8×8画素用の多数のフィルタで得た特徴量から得られる各フィルタごとの一次評価値が加算されて二次評価値が求められる。ここでは、図21に示すように、各教師画像a,b,c,…,mについて、各二次評価値A,B,C,…,Mが求められたものとする。このとき、8×8画素の教師画像a,b,c,…,mのそれぞれに対応する16×16画素の教師画像a,b,c,…,mの重みが、各二次評価値A,B,C,…,Mを使って、全ての画像について平等な1.0から変更され、16×16画素の領域に作用するフィルタの抽出のための学習に利用される。
これ以降の16×16画素の領域のフィルタの抽出アルゴリズム、重み付け変更アルゴリズム、32×32画素の領域のフィルタの抽出への移行のアルゴリズム等は全て同様であり、説明は割愛する。
以上のようにして、8×8画素の領域に作用する多数のフィルタ270A、16×16画素の領域に作用する多数のフィルタ270B、および32×32の領域に作用する多数のフィルタ270Cからなるフィルタ群270が抽出されるとともに、各フィルタについての特徴量(前述した(2)式のベクトル)と一次評価値との対応関係(グラフ、表、関数式などのいずれでもよい)が求められ、図7、図10に示すフィルタ記憶部260に格納される。
次に、以上のようにしてフィルタ記憶部260に格納されたフィルタを利用した領域抽出処理について説明する。
図10に示す画像群生成部210、輝度補正部220、および差分画像作成部230では、学習時における、図12に示す多重解像度展開処理420、輝度補正処理430、差分演算処理440とそれぞれ同様の処理が行なわれる。ただし、画像群生成部210における処理は、前述の多重解像度展開処理220とは多少異なっており、以下において説明する。
図22は、図10に示す画像群生成部210の処理を示す模式図である。
この画像群生成部210には、図1に示す2台の監視カメラ10L,10Rのそれぞれでの撮影により得られた動画像が入力され、その動画像を構成する1枚1枚の画像について図22に示す処理が行なわれる。
ここでは、入力画像である原画像に補間演算処理が施されて、その原画像よりもサイズが少しだけ小さい補間画像1が求められ、さらにその補間画像1よりもサイズが少しだけ小さい補間画像2が求められ、同様にして補間画像3も求められる。
原画像と補間画像1との間の画像サイズの比率Sσは、縦横それぞれについて
Figure 2009251892
但し、Nは、原画像を含む補間画像の数(図22に示す例ではN=4)である。
の比率である。
このようにして補間画像(図22に示す例では補間画像1,2,3)を作成した後、原画像および補間画像のそれぞれについて縦横それぞれについて1画素おきに間引くことにより縦横それぞれについて1/2のサイズの画像が作成され、縦横それぞれについてさらに1/2のサイズの画像が作成され、もう1つさらに1/2のサイズの画像が作成され、これにより図22に示す例では、1枚の原画像から4層の逆ピラミッド型の画像群が4つ作成される。
このようにして多数のサイズの画像を作成することにより、様々なサイズの頭部を抽出することができる。
図10の輝度補正部220および差分画像作成部230の処理は、図12を参照して説明した、輝度補正処理430および差分演算処理440と同じであり、重複説明は省略する。
図22に示す逆ピラミッド型の画像群は、輝度補正部220における輝度補正処理を受けた後、さらには、差分画像作成部230で差分画像の逆ピラミッド型の画像群に変換された後、段階的検出部240に入力される。この段階的検出部240では、領域抽出演算制御部270によるシーケンス制御を受けながら以下の演算処理が行なわれる。
先ず、一次評価値算出部241において、フィルタ記憶部260から8×8画素の領域に作用する多数のフィルタが読み出され、図22に示す逆ピラミッド型の4層の画像群を構成する各4枚の画像のうちの、サイズが最も小さい画像、および2番目に小さい画像が8×8画素の各フィルタでラスタスキャンされて、順次移動する各領域ごとに特徴量を表わすベクトル((4)式参照)が求められ、各フィルタごとの、特徴量と一次評価値との対応関係(図19参照)が参照されて、その特徴量が一次評価値に換算される。
二次評価値算出部242では、8×8画素の領域に作用する多数のフィルタによる多数の一次評価値が互いに加算されて二次評価値が求められ、領域抽出部243ではその二次評価値が所定の第1の閾値以上である(頭部が写されている可能性が高い)一次抽出領域が抽出される。
次にその一次抽出領域の位置情報が一次評価値算出部241に伝達され、一次評価値算出部241では、今度は、フィルタ記憶部260から16×16画素の領域に作用する多数のフィルタが読み出されて、図22に示す逆ピラミッド型の4つの画像群それぞれについて、小さい方から2番目の画像と3番目(大きい方から2番目)の画像上の、領域抽出部243で抽出された一次抽出領域に対応する領域に16×16の画素の領域に作用する各フィルタを作用させて特徴量を算出し、その特徴量を一次評価値に換算する。それらの、16×16画素の領域に作用する多数のフィルタによる多数の一次評価値は二次評価値算出部242において互いに加算されて二次評価値が求められ、その求められた二次評価値が領域抽出部243において第2の閾値と比較されて、上述の一次抽出領域に対応する領域の中から頭部が写されている可能性がさらに高い二次抽出領域が抽出される。この二次抽出領域の位置情報は一次評価値算出部241に伝達され、今度は、その一次評価値算出部241では、フィルタ記憶部260から32×32画素の領域に作用する多数のフィルタが読み出されて、図22に示す逆ピラミッド型の4つの画像群それぞれを構成する大きい方から2番目の画像と最も大きい画像上の、領域抽出部243で抽出された二次抽出領域に対応する領域に、36×36画素の領域に作用する各フィルタを作用させて特徴量が抽出され、その特徴量が一次評価値に換算される。それらの32×32画素の領域に作用する多数のフィルタによる多数の一次評価値は二次評価値算出部242において互いに加算されて二次評価値が求められ、その求められた二次評価値が領域抽出部243において第3の閾値と比較されて、二次抽出領域に対応する領域の中から頭部が写し込まれていると確信できるレベルの三次抽出領域が抽出される。この三次抽出領域の情報、すなわち、その領域の画像上の位置pos(領域の左上隅の座標(l,t)と右下隅の座標(r,b)と最終的な二次評価値likenessが、図5に示す領域統合部250に入力される。
図23は領域統合部150における領域統合処理の説明図である。
この領域統合部250は複数の頭部領域(三次抽出領域)H(i=1,…,M)の情報H(pos,likeness)が入力されると、その領域統合部250では、それらの頭部領域情報Hが二次評価値likenessの順に並べ替えられる。ここでは、2つの領域Href,Hについて互いの領域の一部の重なりが認められるものとし、領域
refの方が領域Hよりも二次評価値likenessが高いものとする。
領域Hrefの面積をSHref、領域Hの面積をSHx、相互に重なった部分の面積をScrossとしたとき、重なりの比率
Figure 2009251892
が算出され、この比率ρが閾値ρlow以上であったときに、領域統合演算が行なわれる。すなわち、領域Hrefの4隅の座標と領域Hの4隅の座標のうちの対応する座標にその領域のlikenessによる重みが付されて、1つに統合される。
例えば、各領域Href,Hの左上隅の左右方向の座標lref,lが、各領域Href,Hの各likenessであるlikeness(ref),likeness(x)を用いて、統合された座標
Figure 2009251892
に変換される。このような演算が位置posを表わす4つの座標
pos=(l,t,r,b)
のそれぞれについて行なわれ、2つの領域Href,Hが1つの領域に統合される。この統合された領域のlikenessとしては、たとえばlikeness(ref)がそのまま採用される。
3つ以上の領域が重なっている場合も同様である。
次に頭部検出部300(図9、図11)の詳細を説明する。
図24は、図11に示す頭部検出部300に入力されてきた頭部領域(ここでは未だ候補に過ぎず、したがってここでは頭部候補と称する)についての前準備を示すブロック図である。
ここでは、左側の監視カメラ10L(図1参照)で得られた画像上の、領域抽出部200(図9、図10参照)で抽出され頭部候補をLCH(i=1,2,…,M)で表わし、右側の監視カメラ(図1参照)で得られた画像上の領域抽出部200で抽出された頭部候補をRCH(j=1,2,…,N)で表わす。
ここでの説明は、左右の監視カメラ10L,10Rで同時に撮影されたペア画像に関する説明である。
各LCH,RCHには、その画像上の位置情報pos=(l,t,r,b)と頭部である確からしさ(前述の二次評価値)likenessの情報を伴っている。位置情報pos=(l,t,r,b)を構成するl,t,r,bは、その頭部候補領域の左上隅の、左右の座標lおよび上下の座標tと、右下隅の、左右の座標rおよび上下の座標bである。
左カメラの画像の頭部候補LCHと右カメラの画像の頭部候補RCHは、左右それぞれの画像ごとに確率(likeness)の高い候補ほど上にくるようにソートされて各格納領域LA,RAに格納される。
このようにソートされた後、確率の高い方から順に1つずつ取り出され、以下の処理によるペア探索およびペア検出が行なわれる。
先ずLCHを1つ取り出して、そのLCHの位置情報posから、そのLCHの縦寸法と横寸法および中心座標を求める。
次に、RCHを1つずつ取り出して、LCHと同様にして、縦寸法と横寸法および中心座標を求め、その縦寸法および横寸法を、取り出されている1つのLCHの縦寸法および横寸法と比べ、縦寸法が所定の比率範囲外又は横寸法が所定の比率範囲外なら、そのRCHは、そのLCHとペアになる可能性はなく、そのLCHとのペアの候補から排除される。このようにして先ず寸法に着目してRCHを粗振いする(図11の寸法着目粗振部310の処理)。また、取り出されているLCHの中心座標と、1つずつ取り出したRCHの中心座標とを比較し、RCHの中心座標が、LCHの中心座標と比べ上下方向について所定範囲から外れていたら、そのRCHはそのLCHとペアになる可能性はなく、そのRCHは、そのLCHとのペアの候補から排除される(図11の位置着目粗振部320の処理)。
次に、LCHと、そのLCHとペアになる可能性のあるRCHについて、以下のベクトル算出処理が行なわれる。
図25は、ベクトル算出処理の説明図である。
図25(A)は、LCH又はRCHの1つの領域の模式図である。
ここでは、縦32画素×横32画素の領域であるとする。
ここでは、先ず、その領域に微分フィルタを作用させて、32×32の各画素について画素値(輝度値)の勾配ベクトル(dx,dy)が求められる(図11のベクトル算出部330のうちの勾配算出部331の処理)。
図25(B)は、各画素ごとの勾配ベクトルの模式図である。
ここでは、図示の関係上、16×16画素の領域について、各画素の勾配ベクトルが示されている。
次に、図25(A)に示すように、この32×32画素の領域が縦横それぞれ4分割される。この図25(A)に示すLCH又はRCHは32×32画素であるから縦横それぞれ4分割したときの1つの領域は8×8画素となる。但し、LCH,RCHが32×32画素の領域ではない場合も、各画素の勾配ベクトルを求めた後、縦横それぞれに4分割される。
次に、縦横それぞれ4分割されることにより形成された4×4=16個のサブ領域のそれぞれについて勾配ベクトルのヒストグラムが求められる。
図25(C)は、そのヒストグラムを勾配方向の矢印の長さで表わした図、図25(D)は、1つのサブ領域についてのヒストグラムを、横方向に角度、縦方向に大きさをとって示した図である。
ここでは45°おきの8方向に量子化され、1つのサブ領域を構成する各画素ごとの勾配ベクトルの方向がその方向に最も近い量子化された8方向のいずれかに揃えられ、その勾配ベクトルの大きさがその揃えられた方向に加算される(図11のベクトル算出部330のうちのヒストグラム算出部332の処理)。
このようにして、各サブ領域ごとに図25(D)に示すようなヒストグラムが求められ、そのトータルの大きさ(図25(D)の縦方向の長さ)の和が基準値(例えば1.0)となるように規格化される。
1つのLCH又はRCHが4×4=16個のサブ領域に分けられ、1つのサブ領域につき、8方向それぞれの値(大きさ)が求められ、したがって、1つのLCH又はRCHにつき、16×8=128要素のベクトルが算出される。
次に、このようにして求めた1つのLCHのベクトルVLと、そのLCHとペアになる可能性のある全てのRCHそれぞれのベクトルVRとの間の論理上の距離(前述の(2)式)が算出され、その算出された距離が最も近く、かつその最も近い距離が閾値distthよりも短かい距離であったときに、その最も近い距離のRCHが、そのLCHとのペアとして検出される。ここでは、このようにして検出されたペアを
(LCH,RCH,z)
と表記する。Pはk番目のペアを表わし、zはその頭部候補の監視カメラ10L,10Rからの距離である。
以上のようにして1つのLCHについてペアが決まると、又はそのLCHについてペアが存在しないことが判明すると、次のLCHについて同様の処理が繰り返される。
次に、図11に示す誤検出排除部350における処理が行なわれる。
ここでは、上記のようにして検出されたペアP(LCH,RCH,z)(k=1,2,…,T)が、画像上の上側に存在するペアから下側に存在するペアの順に並べられる。これは、肩が頭部と誤検出される可能性があり、肩が検出されたペアを排除するための処理である。すなわち、頭部は肩よりも上にあるため、ペアP(LCH,RCH,z)を画像上の上側の座標にあるペアから順に並べ、上側のペアほど優先順位を高めることにより、肩が誤検出されたペアを排除しようとするものである。
ここでは、上下の座標順に並べたペアのうち最優先のペアP(LCH,RCH,z)を取り出し、そのペアの距離情報zをzref、画像上の位置をposrefとする。
次に、そのペア以外のペアを1つずつ取り出してその1つずつ取り出したペアの距離zをzexとし、画像上の位置をposexとしたとき、zexがzrefに対しある近い距離範囲内にあるか否か、およびposexがposrefに対し、posrefが頭の位置としたときにposexが肩の位置に相当するある位置範囲内にあるか否かが判定され、最優先のペアP(LCH,RCH,z)に対し肩の位置に相当するペアが排除される。
最優先のペアについての上記の処理が終了すると次の優先度にあるペアを取り出して、それ以下の優先度のペアと同様の比較が行なわれ、この処理が、優先度の高いペアから低いペアへと順に行なわれる。
この処理により肩の誤検出が排除される。
最後に、上記のような処理で残った、頭部である確率が極めて高いペアP(LCH,RCH,z)(k=1,2,…,U)について、その頭部の3次元座標および縦横の寸法が求められる。すなわち、P(LCH,RCH,z)から、ここではLCHのpos=(l,t,r,b)を用いて
Figure 2009251892
が算出され、その頭部の3次元位置座標と縦横の寸法が求められる。
本実施形態では、以上の処理により、人物頭部が写されている領域が高精度かつ高速に抽出される。
尚、ここでは、領域抽出部200の一例についても詳細に説明したが、本発明の実施形態としての特徴はペア画像を利用して高精度な頭部検出を行なう頭部検出部300の処理にあり、領域抽出部200は、どのようなアルゴリズムで頭部の領域を抽出するものであってもよい。
本発明の一実施形態が組み込まれた監視カメラシステムの概略構成図である。 図1に示す一対の監視カメラに写し出された画像の模式図である。 図1に1つのブロックで示すパーソナルコンピュータの外観斜視図である。 パーソナルコンピュータのハードウエア構成図である。 図1〜図3に示すパーソナルコンピュータを利用して実施される頭部検出方法の一例を示すフローチャートである。 図5に示す頭部検出方法の説明図である。 図5に示す頭部検出方法のうちの領域抽出ステップの詳細フローを示した図である。 図5に示す頭部検出方法のうちの頭部検出ステップの詳細フローを示した図である。 頭部検出装置の一例を示すブロック図である。 図9に示す頭部検出装置のうちの領域抽出部の詳細ブロック図である。 図9に示す頭部検出装置のうちの頭部検出部の詳細ブロック図である。 頭部検出のためのフィルタの学習方法の詳細フロー図である。 多重解像度展開処理の説明図である。 動画像の差分処理の説明図である。 フィルタの構造の説明図である。 各種のフィルタを図解して例示した図である。 機械学習の概念図である。 教師画像の概念図である。 各種フィルタとそれらのフィルタの学習結果を示す概念図である。 教師画像の重み付けを示す説明図である。 8×8画素用のフィルタの抽出が終了し、16×16画素のフィルタの学習への移行時の重み付け方法の説明図である。 画像群生成部の処理を示す模式図である。 領域統合部における領域統合処理の説明図である。 頭部検出部に入力されてきた頭部領域についての前準備を示すブロック図である。 ベクトル算出処理の説明図である。
符号の説明
10R,10L 監視カメラ
20 パーソナルコンピュータ
21L,21R 画像
31 本体装置
31a MO装填口
31b CD/DVD装填口
32 画像表示画面
32a 表示画面
33 キーボード
34 マウス
100 頭部検出装置
200 領域抽出部
210 画像群生成部
220 輝度補正部
230 差分画像作成部
240 段階的検出部
241 一次評価値算出部
242 二次評価値算出部
243 領域抽出部
250 領域統合部
260 フィルタ記憶部
270 領域抽出演算制御部
281 CPU
282 主メモリ
283 ハードディスク装置
284 MOドライブ
285 CD/DVDドライブ
286 インタフェース
287 バス
291 MO、勾配算出部
292 CD/DVD
300 頭部検出部
310 寸法着目粗振部
320 位置着目粗振部
330 ベクトル算出部
331 勾配算出部
332 ヒストグラム算出部
340 距離算出部
350 誤検出排除部
400 画像
401 静止画像
402 動画像
410 アフィン変換処理
420 多重解像度展開処理
430 輝度補正処理
440 差分処理
450 切出し処理
451 教師画像群
460A フィルタ候補
470 フィルタ群
470A,470B,470C フィルタ

Claims (21)

  1. 互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、該ペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出方法であって、
    前記ペア画像を構成する第1および第2の各画像について、該各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出ステップと、
    前記領域抽出ステップで抽出された前記第1の画像上の領域と前記第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出ステップとを有し、
    前記オブジェクト検出ステップが、
    前記領域抽出ステップで抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、該複数のサブ領域に渡るベクトルを算出するベクトル算出ステップと、
    前記ベクトル算出ステップで算出された、前記第1の画像上の領域のベクトルと前記第2の画像上のベクトルとの間の論理上の距離を算出することにより、該論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出ステップとを有することを特徴とするオブジェクト検出方法。
  2. 前記ベクトル算出ステップが、
    前記領域抽出ステップで抽出された領域内の各画素について、画素値の勾配ベクトルを算出する勾配算出ステップと、
    前記勾配算出ステップで算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出ステップとを有し、
    前記ヒストグラム算出ステップで算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、前記N個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するステップであることを特徴とする請求項1記載のオブジェクト検出方法。
  3. 前記オブジェクト検出ステップが、前記領域抽出ステップで抽出された前記第1の画像上の領域の寸法と前記領域抽出ステップで抽出された前記第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振いステップを有し、
    前記距離算出ステップは、前記寸法着目粗振いステップで抽出された領域どうしについて、前記論理上の距離を算出するステップであることを特徴とする請求項1又は2記載のオブジェクト検出方法。
  4. 前記オブジェクト検出ステップが、前記領域抽出ステップで抽出された前記第1の画像上の領域の該第1の画像上の位置と、前記領域抽出ステップで抽出された前記第2の画像上の領域の該第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振いステップを有し、
    前記距離算出ステップは、前記位置着目粗振いステップで抽出された領域どうしについて、前記論理上の距離を算出するステップであることを特徴とする請求項1から3のうちいずれか1項記載のオブジェクト検出方法。
  5. 前記特定種類のオブジェクトが、該特定種類のオブジェクトと比べ所定の相対的位置にある、前記領域抽出ステップにおいて該特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、
    前記オブジェクト検出ステップが、前記距離算出ステップにより検出された領域のペアどうしの相対的位置関係に基づいて前記擬オブジェクトが写し出された領域のペアを排除する誤検出排除ステップをさらに有することを特徴とする請求項1から4のうちいずれか1項記載のオブジェクト検出方法。
  6. 前記領域抽出ステップが、人物頭部が写し出された領域を抽出するステップであることを特徴とする請求項1から5のうちいずれか1項記載のオブジェクト検出方法。
  7. 前記領域抽出ステップが、人物頭部が写し出された領域を抽出するステップであり、
    前記誤検出排除ステップが、人物の肩が写し出された領域のペアを排除するステップであることを特徴とする請求項5記載のオブジェクト検出方法。
  8. 互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、該ペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出装置であって、
    前記ペア画像を構成する第1および第2の各画像について、該各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出部と、
    前記領域抽出部で抽出された前記第1の画像上の領域と前記第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出部とを備え、
    前記オブジェクト検出部が、
    前記領域抽出部で抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、該複数のサブ領域に渡るベクトルを算出するベクトル算出部と、
    前記ベクトル算出部で算出された、前記第1の画像上の領域のベクトルと前記第2の画像上のベクトルとの間の論理上の距離を算出することにより、該論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出部とを備えたことを特徴とするオブジェクト検出装置。
  9. 前記ベクトル算出部が、
    前記領域抽出部で抽出された領域内の各画素について、画素値の勾配ベクトルを算出する勾配算出部と、
    前記勾配算出部で算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出部とを備え、
    前記ヒストグラム算出部で算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、前記N個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するものであることを特徴とする請求項8記載のオブジェクト検出装置。
  10. 前記オブジェクト検出部が、前記領域抽出部で抽出された前記第1の画像上の領域の寸法と前記領域抽出部で抽出された前記第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振い部を備え、
    前記距離算出部は、前記寸法着目粗振い部で抽出された領域どうしについて、前記論理上の距離を算出するものであることを特徴とする請求項8又は9記載のオブジェクト検出装置。
  11. 前記オブジェクト検出部が、前記領域抽出部で抽出された前記第1の画像上の領域の該第1の画像上の位置と、前記領域抽出部で抽出された前記第2の画像上の領域の該第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振い部を備え、
    前記距離算出部は、前記位置着目粗振い部で抽出された領域どうしについて、前記論理上の距離を算出するものであることを特徴とする請求項8から10のうちいずれか1項記載のオブジェクト検出装置。
  12. 前記特定種類のオブジェクトが、該特定種類のオブジェクトと比べ所定の相対的位置にある、前記領域抽出部において該特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、
    前記オブジェクト検出部が、前記距離算出部により検出された領域のペアどうしの相対的位置関係に基づいて前記擬オブジェクトが写し出された領域のペアを排除する誤検出排除部をさらに備えたことを特徴とする請求項8から11のうちいずれか1項記載のオブジェクト検出装置。
  13. 前記領域抽出部が、人物頭部が写し出された領域を抽出するものであることを特徴とする請求項8から12のうちいずれか1項記載のオブジェクト検出装置。
  14. 前記領域抽出部が、人物頭部が写し出された領域を抽出するものであり、
    前記誤検出排除部が、人物の肩が写し出された領域のペアを排除するものであることを特徴とする請求項12記載のオブジェクト検出装置。
  15. プログラムを実行する演算装置内で実行され、該演算装置を、互いに所定距離隔てて設置され互いに同一のシーンを撮影する第1および第2のカメラでの撮影により得られた、それぞれが二次元的に配列された画素で表現された第1および第2の画像からなるペア画像から、該ペア画像に写し出された特定種類のオブジェクトを検出するオブジェクト検出装置として動作させるオブジェクト検出プログラムであって、
    前記演算装置を、
    前記ペア画像を構成する第1および第2の各画像について、該各画像上の、特定種類のオブジェクトが写し込まれた領域を抽出する領域抽出部と、
    前記領域抽出部で抽出された前記第1の画像上の領域と前記第2の画像上の領域の中から互いに対応する領域のペアを検出することにより特定種類のオブジェクトを検出するオブジェクト検出部とを有し、
    前記オブジェクト検出部が、
    前記領域抽出部で抽出された領域について、1つの領域を複数のサブ領域に分けたときの各サブ領域に写し出された部分画像を特徴づける特徴量の、該複数のサブ領域に渡るベクトルを算出するベクトル算出部と、
    前記ベクトル算出部で算出された、前記第1の画像上の領域のベクトルと前記第2の画像上のベクトルとの間の論理上の距離を算出することにより、該論理上の距離が近い領域どうしからなる領域のペアを検出する距離算出部とを有するオブジェクト検出装置として動作させることを特徴とするオブジェクト検出プログラム。
  16. 前記演算装置を、前記ベクトル算出部が、
    前記領域抽出部で抽出された領域について、該領域内の各画素について画素値の勾配ベクトルを算出する勾配算出部と、
    前記勾配ベクトル算出部で算出された勾配ベクトルを用いて、1つの領域をN個のサブ領域に分けたときの各サブ領域ごとに、M段階に量子化された勾配方向ごとの、勾配の大きさのヒストグラムを算出するヒストグラム算出部とを有し、
    前記ヒストグラム算出部で算出された、1つのサブ領域につきM段階の勾配方向それぞれの大きさの、前記N個のサブ領域に渡る、1つの領域につきM×N個の要素からなる1つのベクトルを算出するものであるオブジェクト検出装置として動作させることを特徴とする請求項15記載のオブジェクト検出プログラム。
  17. 前記演算装置を、
    前記オブジェクト検出部が、前記領域抽出部で抽出された前記第1の画像上の領域の寸法と前記領域抽出部で抽出された前記第2の画像上の領域の寸法とを対比して、ペアとなり得る所定寸法範囲内にある領域を抽出する寸法着目粗振い部を有し、
    前記距離算出部が、前記寸法着目粗振い部で抽出された領域どうしについて、前記論理上の距離を算出するものであるオブジェクト検出装置として動作させることを特徴とする請求項15又は16記載のオブジェクト検出プログラム。
  18. 前記演算装置を、
    前記オブジェクト検出部が、前記領域抽出部で抽出された前記第1の画像上の領域の該第1の画像上の位置と、前記領域抽出部で抽出された前記第2の画像上の領域の該第2の画像上の位置とを対比して、ペアとなり得る所定位置範囲内にある領域を抽出する位置着目粗振い部を有し、
    前記距離算出部は、前記位置着目粗振い部で抽出された領域どうしについて、前記論理上の距離を算出するものであるオブジェクト検出装置として動作させることを特徴とする請求項15から17のうちいずれか1項記載のオブジェクト検出プログラム。
  19. 前記特定種類のオブジェクトが、該特定種類のオブジェクトと比べ所定の相対的位置にある、前記領域抽出部において、該特定種類のオブジェクトが写し出された領域として抽出される可能性のある擬オブジェクトを伴うものであって、
    前記演算装置を、前記オブジェクト検出部が、前記距離算出部により検出された領域のペアどうしの相対的位置関係に基づいて前記擬オブジェクトが写し出された領域のペアを排除する誤検出排除部をさらに有するオブジェクト検出装置として動作させることを特徴とする請求項15から18のうちいずれか1項記載のオブジェクト検出プログラム。
  20. 前記演算装置を、前記領域抽出部が人物頭部が写し出された領域を抽出するものであるオブジェクト検出装置として動作させることを特徴とする請求項15から19のうちいずれか1項記載のオブジェクト検出プログラム。
  21. 前記演算装置を、前記領域抽出部が人物頭部が写し出された領域を抽出するものであり、前記誤検出排除部が人物の肩が写し出された領域のペアを排除するものであるオブジェクト検出装置として動作させることを特徴とする請求項19記載のオブジェクト検出プログラム。
JP2008098600A 2008-04-04 2008-04-04 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム Abandoned JP2009251892A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008098600A JP2009251892A (ja) 2008-04-04 2008-04-04 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008098600A JP2009251892A (ja) 2008-04-04 2008-04-04 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム

Publications (1)

Publication Number Publication Date
JP2009251892A true JP2009251892A (ja) 2009-10-29

Family

ID=41312549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008098600A Abandoned JP2009251892A (ja) 2008-04-04 2008-04-04 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム

Country Status (1)

Country Link
JP (1) JP2009251892A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345983B2 (en) 2007-07-20 2013-01-01 Fujifilm Corporation Image processing apparatus, image processing method, image processing system and computer readable medium
US8363953B2 (en) 2007-07-20 2013-01-29 Fujifilm Corporation Image processing apparatus, image processing method and computer readable medium
WO2013125494A1 (ja) * 2012-02-24 2013-08-29 日本電気株式会社 画像照合装置、画像照合方法とプログラム
CN109690615A (zh) * 2016-09-15 2019-04-26 三菱电机株式会社 物体检测装置和物体检测方法
CN110910429A (zh) * 2019-11-19 2020-03-24 普联技术有限公司 一种运动目标检测方法、装置、存储介质及终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092451A (ja) * 2003-09-16 2005-04-07 Sony Corp 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP2005189109A (ja) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd 3次元画像処理装置
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092451A (ja) * 2003-09-16 2005-04-07 Sony Corp 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP2005189109A (ja) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd 3次元画像処理装置
JP2006254321A (ja) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd 人物追尾装置及び人物追尾プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345983B2 (en) 2007-07-20 2013-01-01 Fujifilm Corporation Image processing apparatus, image processing method, image processing system and computer readable medium
US8363953B2 (en) 2007-07-20 2013-01-29 Fujifilm Corporation Image processing apparatus, image processing method and computer readable medium
US8532394B2 (en) 2007-07-20 2013-09-10 Fujifilm Corporation Image processing apparatus, image processing method and computer readable medium
WO2013125494A1 (ja) * 2012-02-24 2013-08-29 日本電気株式会社 画像照合装置、画像照合方法とプログラム
CN109690615A (zh) * 2016-09-15 2019-04-26 三菱电机株式会社 物体检测装置和物体检测方法
DE112016007131B4 (de) 2016-09-15 2023-11-02 Mitsubishi Electric Corporation Objektdetektionseinrichtung und Objektbestimmungsverfahren
CN110910429A (zh) * 2019-11-19 2020-03-24 普联技术有限公司 一种运动目标检测方法、装置、存储介质及终端设备
CN110910429B (zh) * 2019-11-19 2023-03-17 成都市联洲国际技术有限公司 一种运动目标检测方法、装置、存储介质及终端设备

Similar Documents

Publication Publication Date Title
JP5227639B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP5227629B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP5214533B2 (ja) 人物追跡方法、人物追跡装置および人物追跡プログラム
JP7482181B2 (ja) 画像処理装置、画像処理方法
JP5227888B2 (ja) 人物追跡方法、人物追跡装置および人物追跡プログラム
Lee et al. Semantic line detection and its applications
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US7003136B1 (en) Plan-view projections of depth image data for object tracking
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
JP5027030B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
CN110210276A (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
KR102028705B1 (ko) Cnn을 이용한 영상 수평 보정 방법 및 레지듀얼 네트워크 구조
CN108681711A (zh) 一种面向移动机器人的自然路标提取方法
JP2018181273A (ja) 画像処理装置及びその方法、プログラム
JP2005242640A (ja) 対象物検出方法および装置並びにプログラム
JP7230345B2 (ja) 情報処理装置及び情報処理プログラム
JP2009251892A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
JP6875646B2 (ja) 画像処理装置、および、画像処理プログラム
JP2017182436A (ja) 画像認識装置、及び画像認識プログラム
JP6820489B2 (ja) 画像処理装置、および、画像処理プログラム
Jiang [Retracted] Application of Rotationally Symmetrical Triangulation Stereo Vision Sensor in National Dance Movement Detection and Recognition
Liu et al. Free-head pose estimation under low-resolution scenarios
JP4158544B2 (ja) 画像探索装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20120830