JP2011070629A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2011070629A5 JP2011070629A5 JP2010033410A JP2010033410A JP2011070629A5 JP 2011070629 A5 JP2011070629 A5 JP 2011070629A5 JP 2010033410 A JP2010033410 A JP 2010033410A JP 2010033410 A JP2010033410 A JP 2010033410A JP 2011070629 A5 JP2011070629 A5 JP 2011070629A5
- Authority
- JP
- Japan
- Prior art keywords
- face
- face detection
- state
- frame data
- detection frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 276
- 230000000694 effects Effects 0.000 claims description 150
- 238000011156 evaluation Methods 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 53
- 238000005259 measurement Methods 0.000 claims description 32
- 230000000875 corresponding Effects 0.000 claims description 22
- 238000010191 image analysis Methods 0.000 claims description 8
- 238000003703 image analysis method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000408659 Darpa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000001815 facial Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Description
本発明は,ディスプレイの広告効果を測定するための技術に関する。なお,ディスプレイとは、液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などを含む。
液晶ディスプレイやプロジェクタなどを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が,様々な場所に設置され始めている。
デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。
デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。
広告主がデジタルサイネージを導入するのにあたり,テレビの視聴率,新聞,雑誌の販売部数といったように,客観的な広告効果を広告主に提示することが必要になり,デジタルサイネージの広告効果に係わる発明としては,例えば,特許文献1が開示されている。
特許文献1で開示されている表示装置は,電子看板(デジタルサイネージ)を見ている人を撮影するビデオカメラを備え,このビデオカメラにおける顔検出結果と,他の場所(会計コーナ)に設置されたカメラの顔検出結果を関連付けることで,電子看板で表示している広告の広告効果として広告と消費行動の関連性を求める装置である。
上述した広告効果に加え,特許文献1で開示されている表示装置には,表示装置単体で得られる広告効果を算出するために統計解析モジュールが備えられ,この統計解析モジュールは,ビデオカメラが撮影した映像を解析し,該映像に含まれる個々の顔の数、性別データ、年齢カテゴリデータ、電子看板の方を向いていた時間である滞在時間などを算出する。
電子看板の方を向いていた時間である滞在時間など,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などのようなディスプレイを閲覧している時間を人物毎に測定するためには,映像に含まれる人物の顔をトラッキングすることが必要になり,特許文献1においては,トラッキング手法として,色マッチング法及びカルマンフィルタリング法が記載されているが,これらの手法は,顔を見失った場合でもトラッキングを続けることができる等の利点があるものの,これらの手法の処理速度が遅く,全体の処理において律速になってしまう。
そこで,本発明は,デジタルサイネージなどのディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することができ,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供することを目的とする。
上述した課題を解決する第1の発明は,ディスプレイの広告効果を測定する広告効果測定装置であって,前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定装置である。
上述した第1の発明によれば,前記広告効果測定装置の前記顔検出手段が、顔検出枠の位置・矩形サイズを顔検出枠データとして出力し,前記広告効果測定装置の前記トラッキング手段が、今回の前記顔検出枠データに,位置・矩形サイズが近い一つ前の前記顔検出枠データを対応付けることで,顔検出枠をトラッキングする処理で複雑な画像処理は行われず,この処理を高速に行うことができるようになる。また,前記広告効果測定装置に前記状態遷移管理手段を備えさせることで,ディスプレイの広告効果として,前記ディスプレイを閲覧している人の閲覧時間をログとして取得できるようになる。
更に,第2の発明は,前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,第1の発明に記載の広告効果測定装置である。
上述した第2の発明によれば,今回の前記フレームにおいて、非常に近い顔検出枠が2つ以上ある場合は,顔が似ている方の顔検出枠に対応する一つ前の顔検出枠データを今回の顔検出枠データに対応付けできるようになる。
更に,第3の発明は,前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,第1の発明は第2の発明に記載の広告効果測定装置である。
第3の発明によれば,また,前記広告効果測定装置が前記動画解析手段を備えることで,顔検出枠を見失った場合,すなわち,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合でも対応を取ることができる。なお,前記動画解析手段が実行する手法としては,時系列パーティクルフィルタ,LK法またはCamSiftのいずれか又は全てを該利用することができる。
更に,第4の発明は,前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,第3の発明に記載の広告効果測定装置である。
更に,第5の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,第1の発明から第4の発明のいずれか一つに記載の広告効果測定装置である。
更に,第6の発明は,前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,第1の発明から第5の発明のいずれか一つに記載の広告効果測定装置である。
更に,第7の発明は,前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,第1の発明から第6の発明のいずれか一つに記載の広告効果測定装置である。
第4の発明のように,前記顔オブジェクトの状態を遷移させれば,ディスプレイを閲覧した人物毎の閲覧時間をログとして記憶することができ,第5の発明によれば,ディスプレイを閲覧した人物毎に位置をログとして記憶することができるようになる。
更に,第6の発明のように,前記広告効果測定装置に前記人物属性推定手段を備えさせれば,ディスプレイを閲覧した人物の人物属性(年齢・性別)をログとして記憶できるようになり,また,第7の発明のように,前記広告効果測定装置に前記人体検出手段を備えさせれば,ディスプレイの前にいる人の総人数をログとして記憶できるようになる。
更に,第8の発明は,前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする,第1の発明から第7の発明のいずれか一つに記載の広告効果測定装置である。
第8の発明によれば,前記広告効果測定装置に前記背景除去手段を備えさせることで,顔検出・人体検出の精度を高めると共に処理速度を向上させることができるようになる。
更に,第9の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,第1の発明から第8の発明のいずれか一つに記載の広告効果測定装置である。
更に,第10の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,第1の発明から第9の発明のいずれか一つに記載の広告効果測定装置である。
第9の発明のように状態遷移させれば,前記顔検出手段が検出した顔画像がランダムに発生するノイズの場合,該顔画像をノイズとして扱うことができる,また,第10の発明のように状態遷移させれば,一時的に完全に見失ってもトラッキングを再開することができるようになる。
更に,第11の発明は,ディスプレイの前にいる人物を撮影するカメラと,前記カメラが撮影した映像に含まれるフレームを解析することで,前記ディスプレイの広告効果を測定する広告効果測定装置とから少なくとも構成される広告効果測定システムであって,前記広告効果測定装置は,前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定システムである。
第11の発明は,第1の発明に記載の広告効果測定装置を利用した広告効果測定システムにかかる発明である。
上述した発明によれば,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などのようなディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することができ,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供できる。
ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。
図1は,本実施形態における広告効果測定システム1の構成を説明する図,図2は,広告効果測定システム1を構成する広告効果測定装置2のハードウェアブロック図,図3は,広告効果測定装置2に実装されたコンピュータプログラムで実現される機能ブロック図である。
図1で図示したように,広告効果測定システム1には,街頭や店舗などに設置され,ディスプレイ装置3aを用いて広告を表示する広告媒体であるデジタルサイネージ3が含まれる。
なお,デジタルサイネージ3には,広告映像を再生するディスプレイ装置3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。
デジタルサイネージ3のディスプレイ装置3aには,ディスプレイ装置3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定され,ディスプレイ装置3aで再生されている広告映像を閲覧している人物を撮影するビデオカメラ4が設置されている。
このビデオカメラ4で撮影された映像は,USBポートなどを利用して広告効果測定装置2に入力され,広告効果測定装置2は,ビデオカメラ4から送信された映像に含まれるフレームを解析し,ディスプレイ装置3aの前にいる人物や,ディスプレイ装置3aで再生されている広告映像を閲覧した人物の顔を検出し,デジタルサイネージ3の広告効果の測定に利用可能なログ(例えば,デジタルサイネージ3の閲覧時間)を記憶する。
図1で図示した広告効果測定システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,広告効果測定装置2は,従来技術にはない特徴を備えているため,ここから,広告効果測定装置2について詳細に説明する。
広告効果測定装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを広告効果測定装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。
広告効果測定装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,広告効果測定装置2には図3で図示した手段が備えられる。
図3で図示したように,広告効果測定装置2の入力は,ビデオカメラ4によって撮影された映像で,広告効果測定装置2の出力は,デジタルサイネージの広告効果の測定に利用可能なデータが記憶されたログファイルである。
広告効果測定装置2は,ビデオカメラ4によって撮影された映像のフレームを解析する手段として,ビデオカメラ4によって撮影された映像のフレームの背景画像を除去する背景除去手段20と,背景除去手段20によって背景画像が除去されたフレームから人物の顔を検出する顔検出手段21と,背景除去手段20によって背景画像が除去されたフレームから人体を検出する人体検出手段22と,顔検出手段21が検出した顔を前後のフレームで対応付けるトラッキング手段23と,パーティクルフィルタなどの動画解析手法を用い,指定された顔画像をフレームから検出する動画解析手段24と,顔検出手段21が新規に検出した顔画像毎に顔オブジェクトを生成し,トラッキング手段23から得られる一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理手段25を備え,更に,本実施形態では,デジタルサイネージ3を閲覧した人物の属性(年齢や性別)をログデータに含ませるために,顔検出手段21が検出した顔画像から人物の人物属性(年齢や性別)を推定する人物属性推定手段26を備えている。
広告効果測定装置2が,ビデオカメラ4によって撮影された映像のフレームを時系列で解析することで,広告効果測定装置2のデータ記憶装置2dには,広告効果の測定に利用可能なログファイルとして,デジタルサイネージの閲覧時間が記憶される閲覧時間ログファイルと,デジタルサイネージを閲覧した人物の位置が記憶される位置ログファイルと,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)が記憶される人物属性ログファイルと,デジタルサイネージの前にいる人物の総人数,デジタルサイネージを閲覧していない人物の人数,デジタルサイネージを閲覧した人物の人数が記憶される人数ログファイルが記憶され,これらのログファイルを出力するログファイル出力手段27が広告効果測定装置2には備えられている。
まず,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明しながら,ビデオカメラ4によって撮影された映像のフレームを解析するために備えられた各手段について説明する。
図4は,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明するフロー図である。それぞれの処理の詳細は後述するが,広告効果測定装置2に映像の一つのフレームが入力されると,広告効果測定装置2は該フレームについて背景除去処理S1を行い,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行う。
広告効果測定装置2は,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行った後,顔検出処理S2の結果を利用して,今回の処理対象となるフレームであるNフレームから検出された顔と,一つ前のフレームであるN−1フレームから検出された顔を対応付けるトラッキング処理S4を行い,トラッキング処理S4の結果を踏まえて顔オブジェクトの状態を遷移させる状態遷移管理処理S5を実行する。
まず,背景除去処理S1について説明する。背景除去処理S1を担う手段は,広告効果測定装置2の背景除去手段20である。広告効果測定装置2が背景除去処理S1を実行するのは,図1に図示しているように,デジタルサイネージ3のディスプレイ装置3aの上部に設けられたビデオカメラ4の位置・アングルは固定であるため,ビデオカメラ4が撮影した映像には変化しない背景画像が含まれることになり,この背景画像を除去することで,精度よく人体・顔を検出できるようにするためである。
広告効果測定装置2の背景除去手段20が実行する背景除去処理としては既存技術を利用でき,ビデオカメラ4が撮影する映像は,例えば,朝,昼,夜で光が変化する場合があるので,背景の時間的な変化を考慮した動的背景更新法を用いることが好適である。
背景の時間的な変化を考慮した動的背景更新法としては,例えば,「森田 真司, 山澤一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)」に記載されている手法を用いることができる。
次に,広告効果測定装置2の顔検出手段21によって実行される顔検出処理S2について説明する。顔検出処理S2で実施する顔検出方法としては,特許文献1に記載されているような顔検出方法も含め,様々な顔検出方法が開示されているが,本実施形態では,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用している。なお,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については,「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」,「RainerLienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。
弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を実行することで,フレームに含まれる顔画像毎に顔検出枠データが得られ,この顔検出枠データには,顔画像を検出したときに利用した顔検出枠の位置(例えば,左上隅の座標)・矩形サイズ(幅及び高さ)が含まれる。
次に,広告効果測定装置2の人体検出手段22によって実行される人体検出処理S3について説明する。人体を検出する手法としては赤外線センサを用い,人物の体温を利用して人体を検出する手法が良く知られているが,本実施形態では,人体検出処理S3で実施する人体検出方法に,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法を採用している。なお,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については,「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。
弱い識別器としてHOG特徴を用いたAdaboostアルゴリズムによる人体検出法を実行することで,フレームに含まれる人体毎に人体検出枠データが得られ,この人体検出枠データには,人体画像を検出したときに利用した人体検出枠の位置(例えば,人体検出枠の左上隅の座標)・矩形サイズ(幅及び高さ)が得られる。
図8は,人体及び顔検出結果を説明するための図である。図8のフレーム7で撮影されている人物は,人物7a〜7fの合計6人が含まれ,広告効果測定装置2の人体検出手段22はそれぞれの人物7a〜7fを検出し,それぞれの人物7a〜7fに対応する人体検出枠データ70a〜70fを出力する。また,広告効果測定装置2の顔検出手段21は,両眼が撮影されている人物7a〜7cの顔を検出し,それぞれの顔に対応する顔検出枠データ71a〜71cを出力する。
次に,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4について説明する。トラッキング処理S4では,広告効果測定装置2のトラッキング手段23によって,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける処理が実行される。
ここから,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理について詳細に説明する。図5は,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4を説明するためのフロー図である。
広告効果測定装置2のトラッキング手段23は,Nフレームをトラッキング処理S4するために,まず,Nフレームから得られた顔検出枠データ及び人体検出枠データをそれぞれ顔検出手段21及び人体検出手段22から取得する(S10)。
なお,次回のトラッキング処理S4において,Nフレームから得られた顔検出枠データは,N−1フレームの顔検出枠データとして利用されるため,広告効果測定装置2のトラッキング手段23は,Nフレームから得られた顔検出枠データをRAM2cまたはデータ記憶装置2dに記憶する。
広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データ及び人体検出枠データを取得すると,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行う(S11)。
上述しているように,人体検出枠データには人体検出枠の位置及び矩形サイズが含まれ,顔検出枠データには顔検出枠の位置及び矩形サイズが含まれるため,顔検出枠が含まれる人体検出枠データは,デジタルサイネージ3を閲覧している人物の人体検出枠データと判定でき,また,顔検出枠が含まれない人体検出枠データは,デジタルサイネージ3を閲覧していない人物の人体検出枠データと判定できる。
広告効果測定装置2のトラッキング手段23は,このようにして,Nフレームの人体検出枠データ毎にデジタルサイネージの閲覧判定を行うと,Nフレームが撮影されたときの人数ログファイルとして,デジタルサイネージ3の前にいる人物の総人数,すなわち,人体検出手段22によって検出された人体検出枠データの数と,デジタルサイネージ3を閲覧していない人物の人数,すなわち,顔検出枠が含まれていない人体検出枠データの数と,デジタルサイネージ3を閲覧している人物の人数,すなわち,顔検出枠が含まれる人体検出枠データの数を記載した人数ログファイルを生成し,Nフレームのフレーム番号などを付与してデータ記憶装置2dに記憶する。
広告効果測定装置2のトラッキング手段23は,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行うと,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける顔検出枠データ対応付け処理S12を実行する。
図6は,顔検出枠データ対応付け処理S12を説明するためのフロー図で,本実施形態では,図6で図示したフローにおいて,以下に記述する数式1の評価関数を用いて得られる評価値を利用して,顔検出枠データの対応付けがなされる。
なお,数式1の評価関数f1()は,ニアレストネイバー法を用いた評価関数で,評価関数f1()で得られる評価値は,顔検出枠データの位置・矩形サイズの差を示した評価値になる。また,数式1の評価関数f2()で得られる評価値は,評価関数f1()から求められる評価値に,顔検出枠データで特定される顔検出枠に含まれる顔画像から得られ,顔画像の特徴を示すSURF特徴量の差が重み付けして加算された評価値になる。
N−1フレームから検出した顔検出枠データとNフレームから検出した顔検出枠データを対応付けるために,広告効果測定装置2のトラッキング手段23は,まず,Nフレームから得られた顔検出枠データの数だけループ処理L1を実行する。
このループ処理L1において,広告効果測定装置2のトラッキング手段23は,まず,N−1フレームから検出された顔検出枠データの数だけループ処理L2を実行し,このループ処理L2では,ループ処理L1の処理対象となる顔検出枠データの位置・矩形サイズと,ループ処理L2の処理対象となる顔検出枠データの位置・矩形サイズが,数式1の評価関数f1()に代入して評価値を算出し(S120),ループ処理L1の対象となる顔検出枠データとの位置・サイズの差を示す評価値が,N−1フレームから検出された顔検出枠データ毎に算出される。
広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値を,N−1フレームから検出された顔検出枠データ毎に算出すると,該評価値の最小値を検索し(S121),該評価値の最小値と他の評価値との差分を算出した後(S122),閾値以下の該差分値があるか判定する(S123)。
そして,広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値の最小値と他の評価値との差分の中に,閾値以下の差分がある場合,広告効果測定装置2のトラッキング手段23は,評価値が閾値以内である顔検出枠データを対象としてループ処理L3を実行する。
このループ処理L3では,ループ処理L1の処理対象となる顔検出枠データで特定される顔検出枠内の顔画像と,ループ処理L3の処理対象となるN−1フレームの顔検出枠データで特定される顔検出枠内の顔画像とのSURF特徴量の差が求められ,SURF特徴量の差が数式1の評価関数f2()に代入され,SURF特徴量の差を加算した評価値が算出される(S124)。
数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出するのは,ニアレストネイバー法のみを利用した評価関数f1()を用いて求められた評価値の最小値と他の評価値との差分値に閾値以下がある場合,サイズの似た顔検出枠が近接していると考えられ(例えば,図8の人物7a,b),ニアレストネイバー法の評価値からでは,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データが判定できないからである。
数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出することで,顔の特徴が加味された評価値が算出されるので,該評価値を用いることで,サイズの似た顔検出枠が近接している場合は,顔が似ているN−1フレームの顔検出枠データがNフレームの顔検出枠データに対応付けられることになる。
そして,広告効果測定装置2のトラッキング手段23は,数式1の評価関数から得られた評価値が最小値であるN−1フレームの顔検出枠データを,ループ処理L1の対象となるNフレームの顔検出枠データに対応付ける処理を実行する(S125)。
なお,数式1で示した評価関数f2()を用いた評価値を算出していない場合,この処理で利用される評価値は,数式1で示した評価関数f1()から求められた値になり,数式1で示した評価関数f2()を用いた評価値を算出している場合,この処理で利用される評価値は,数式1で示した評価関数f2()から求められた値になる。
なお,数式1で示した評価関数f2()を用いた評価値を算出していない場合,この処理で利用される評価値は,数式1で示した評価関数f1()から求められた値になり,数式1で示した評価関数f2()を用いた評価値を算出している場合,この処理で利用される評価値は,数式1で示した評価関数f2()から求められた値になる。
ループ処理L1が終了し,広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データとN−1フレームの顔検出枠データを対応付けすると,N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられていないか確認する(S126)。
N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられている場合,広告効果測定装置2のトラッキング手段23は,重複して対応付けられているN−1フレームの顔検出枠データの評価値を参照し,評価値が小さい方を該Nフレームの顔検出枠データに対応付ける処理を再帰的に実行することで,最終的に,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データを決定する(S127)。
ここから,図5で図示したフローの説明に戻る。トラッキング処理S4が終了すると,広告効果測定装置2の状態遷移管理手段25は,トラッキング処理S4で得られた一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理処理S5を実行し,この状態遷移管理処理S5で所定の状態遷移があると,該状態遷移に対応した所定のログファイルがデータ記憶装置2dに記憶される。
広告効果測定装置2の状態遷移管理手段25には,顔オブジェクトの状態遷移を管理するために,予め,顔オブジェクトの状態と該状態を状態遷移させるルールが定義された状態遷移表が定められており,広告効果測定装置2のトラッキング手段23は,この状態遷移表を参照し,顔検出枠対応付け処理の結果に基づき顔オブジェクトの状態を遷移させる。
ここから,状態遷移表の一例を例示し,該状態遷移表の説明をしながら,広告効果測定装置2の状態遷移管理手段25によって実行される状態遷移管理処理S5について説明する。
図7は,本実施形態における状態遷移表6を説明する図である。図7で図示した状態遷移表6によって,顔オブジェクトの状態と,N−1フレームの状態からNフレームの状態への遷移が定義され,状態遷移表6の縦軸はN−1フレームの状態で,横軸はNフレームの状態で,縦軸と横軸が交差する箇所に状態遷移する条件が記述されている。なお,状態遷移表に「―」は不正な状態遷移を示している。
図7で図示した状態遷移表6には,顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceが定義され,状態遷移表で定義された状態遷移を説明しながら,それぞれの状態について説明する。
顔オブジェクトの状態の一つであるNoneとは,顔オブジェクトが存在しない状態を意味し,N−1フレームの顔検出枠データが対応付けられなかったNフレームの顔検出枠データがある場合(図7の条件1),広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトを識別するためのID,該Nフレームの顔検出データ,顔オブジェクトに付与された状態に係わるデータなどを属性値と有する顔オブジェクトを新規に生成し,該顔オブジェクトの状態を候補Faceに設定する。
顔オブジェクトの状態の一つである候補Faceとは,新規に検出した顔画像がノイズである可能性がある状態を意味し,顔オブジェクトの状態の一つに候補Faceを設けているのは,複雑な背景の場合,背景除去処理を行っても顔画像の誤検出が発生し易く,新規に検出できた顔画像がノイズの可能性があるからである。
候補Faceの状態である顔オブジェクトには,候補Faceの状態に係わるデータとして,候補Faceの状態であることを示す状態IDと,候補Faceへ状態遷移したときの日時及びカウンタが付与される。
候補Faceから状態遷移可能な状態は,候補Face,現在Face及びノイズFaceで,事前に定められた設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔画像が所定の数だけ連続してトラッキングできた場合(図7の条件2−2),該顔オブジェクトの状態は候補Faceから現在Faceに遷移する。
候補Faceの状態である顔オブジェクトの属性にカウンタを設けているのは,設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔検出枠を連続してトラッキングできた回数をカウントするためで,広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データが含まれている顔オブジェクトの状態が候補Faceの場合,該顔オブジェクトに付与されている顔検出枠データをNフレームの顔検出枠データに更新すると共に,該顔オブジェクトのカウンタをインクリメントする。
そして,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を実行する際,候補Faceである顔オブジェクト毎に,候補Faceへ状態遷移したときの日時を参照し,設定時間以内に該カウンタの値が事前に定めた設定値に達している場合は,顔オブジェクトの状態を現在Faceに状態遷移させる。また,広告効果測定装置2の状態遷移管理手段25は,この時点で設定時間が経過しているが,該カウンタが設定値に達しなかった該顔オブジェクトの状態をノイズFaceに状態遷移させ(図7の条件2−3),該設定時間が経過していない該顔オブジェクトについては状態を状態遷移させない(図7の条件2−1)。
顔オブジェクトの状態の一つであるノイズFaceとは,広告効果測定装置2の顔検出手段21が検出した顔画像がノイズと判定された状態で,ノイズFaceに状態遷移した顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5に利用されない。
顔オブジェクトの状態の一つである現在Faceとは,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧状態と判定できる状態で,現在Faceの状態にある時間が,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧している時間となる。
広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を候補Faceから現在Faceに状態遷移すると,該顔オブジェクトの顔検出枠データをNフレームの顔検出枠データに更新すると共に,現在Faceに係わるデータとして,現在Faceの状態であることを示す状態IDと現在Faceに状態遷移させたときの日時を顔オブジェクトに付与する。
また,デジタルサイネージを閲覧している人物の人物属性(例えば,年齢・性別)をログとして記憶するために,顔オブジェクトの状態を現在Faceに状態遷移すると,広告効果測定装置2の状態遷移管理手段25は人物属性推定手段26を作動させ,現在Faceに状態遷移させた顔オブジェクトの顔検出枠データで特定される顔検出枠内の画像を解析することで得られる人物属性を取得し,該顔オブジェクトのオブジェクトID,人物属性が記述された属性ログファイルをデータ記憶装置2dに記憶する。
なお,広告効果測定装置2に備えられた人物属性推定手段26については詳細な記載はしないが,人物の顔画像から人物の人物属性(年齢・性別)を自動で識別することは,タバコの自動販売機などでも広く利用されており,例えば,特開2007―080057号公報の技術を利用できる。
更に,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を現在Faceに状態遷移すると,デジタルサイネージ3を閲覧している人物の位置を時系列で記憶するための位置ログファイルをデータ記憶装置2dに新規に生成する。生成時の位置ログファイルには,現在Faceに状態遷移した顔オブジェクトのオブジェクトIDと,現在Faceに状態遷移した顔オブジェクトに含まれる顔検出枠データが付与される
現在Faceの状態から状態遷移可能な状態は,現在Face及び待機Faceである。広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データを含む顔オブジェクトの状態が現在Faceの場合(条件3−1),該顔オブジェクトに付与されている顔検出枠データをNフレームにおける顔検出枠データに更新すると共に,該顔検出枠データを,該顔オブジェクトのオブジェクトIDで特定される位置ログファイルに追加する。
また,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を行う際,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データが付与されている顔オブジェクトの状態が現在Faceの場合,動画解析手段24を作動させて,動画解析手法により, 動画解析手法により、該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する処理を実施する。
本実施形態において,広告効果測定装置2の動画解析手段24は,まず,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データと既に対応付けられているNフレームの顔検出枠データの間で、オクルージョン状態の判定を行い,対象となる人物の顔が完全に隠れた状態のオクルージョンであるか確認する。
広告効果測定装置2の動画解析手段24は,この時点で存在し,現在Face,候補Face及び待機Faceの状態である全ての顔オブジェクトについて,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行する。
広告効果測定装置2の動画解析手段24は,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行すると,判定結果に基づき処理を分岐する。
トラッキング対象である人物が完全に隠れた状態のオクルージョンである可能性が高いと判断できた場合(数式2の判定基準1に該当する場合)、パーティクルフィルタによるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,パーティクルフィルタについては,「加藤丈和: 「パーティクルフィルタとその実装法」,情報処理学会研究報告, CVIM-157, pp.161-168 (2007).」など数多くの文献で述べられている。
また、トラッキング対象である人物が半分隠れた状態のオクルージョンで可能性が高いと判断できた場合(数式2の判定基準2に該当する場合)、LK法(Lucus-Kanadeアルゴリズム)によるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,LK法については,「Lucas, B.D. and Kanade, T.:" An Iterative ImageRegistration Technique with an Application to Stereo Vision",Proc.DARPA ImageUnderstanding Workshop,pp.121-130,1981.」で述べられている。
そして,トラッキング対象である人物にオクルージョンはない可能性が高いと判定できた場合(数式3の判定基準3に該当する場合),広告効果測定装置2の動画解析手段24は,CamShift手法を用いたトラッキングを行い,対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,CamShift手法については,「G. R. Bradski:"Computer vision face tracking foruse in a perceptual user interface," Intel Technology Journal, Q2, 1998.」で述べられている。
広告効果測定装置2の状態遷移管理手段25は,これらのいずれかの手法で対象となる顔画像がNフレームから検出できた場合,現在Faceの状態である顔オブジェクトの顔検出データを,これらの手法で検出された位置・矩形サイズに更新し,これらのいずれかの手法でも対象となる顔画像がトラッキングできなかった場合,現在Faceの状態である顔オブジェクトの状態を待機Faceに状態遷移させる(図7の条件3−2)。
顔オブジェクトの状態の一つである待機Faceとは,広告効果測定装置2に備えられた動画解析手段24を用いても,顔オブジェクトに対応する顔画像を検出できなくなった状態である。
また,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を待機Faceに状態遷移する際,顔オブジェクトの顔検出枠データは更新せず,待機Faceに係わるデータとして,待機Faceの状態であることを示す状態IDと,該顔オブジェクトが現在Faceに状態遷移したときの日時と,該顔オブジェクトが待機Faceに状態遷移したときの日時を顔オブジェクトに付与する。
待機Faceから状態遷移可能な状態は,現在Faceまたは終了Faceである。広告効果測定装置2の状態遷移管理手段25は,待機Faceに状態遷移してからの時間が所定時間経過する前に,Nフレームの顔検出枠データを含む顔オブジェクトを検索し,該顔オブジェクトの状態が待機Faceであった場合,該顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる(図7の条件4−1)。
なお,顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる際,広告効果測定装置2の状態遷移管理手段25は,該顔オブジェクトが現在Faceに状態遷移したときの日時は,待機Faceの状態のときに顔オブジェクトに付与されていた該日時を利用する。
また,広告効果測定装置2のトラッキング手段23は,顔オブジェクトの状態遷移を管理する処理を実行する際,待機Faceに状態遷移してからの時間が所定時間経過した顔オブジェクトの状態を終了Faceに状態遷移させ(図7の条件4−3),該設定時間が経過していない該顔オブジェクトについては状態を遷移させない(図7の条件4−2)。
顔オブジェクトの状態の一つである終了Faceとは,広告効果測定装置2が検出できなくなった人物に対応する状態で,状態が終了Faceになった顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5で利用されない。
なお,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を終了Faceに状態遷移する前に,該顔オブジェクトのオブジェクトID,該顔オブジェクトが現在Faceに状態遷移したときの日時である閲覧開始時刻,該顔オブジェクトが待機Faceに状態遷移したときの日時である閲覧終了時刻を記述した閲覧時間ログファイルを生成しデータ記憶装置2dに記憶させる。
以上詳しく説明したように、広告効果測定装置2は,顔検出手段21が検出した顔毎に生成する顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceの5つを状態遷移表6で定義し,顔オブジェクトに対応する顔のトラッキング結果に従い,顔オブジェクトの状態を遷移させることで,顔オブジェクトの状態遷移に従い,デジタルサイネージ3の閲覧時間をログとして記憶することが可能になる。
上述した内容に従えば,顔オブジェクトの状態が現在Faceである間は,顔オブジェクトに対応する顔を連続して検出できたことになるため,現在Faceの状態にあった時間は,デジタルサイネージ3の閲覧時間になる。
また,顔オブジェクトの状態として候補Faceを定義しておくことで,ノイズによって顔を誤検出した場合でも,デジタルサイネージ3の閲覧時間への影響はなくなる。また,顔オブジェクトの状態として待機Faceを定義しておくことで,顔を見失った後に,同じ顔を検出した場合でも,同じ顔として取り扱うことができるようになる。
1 広告効果測定システム
2 広告効果測定装置
20 背景除去手段
21 顔検出手段
22 人体検出手段
23 トラッキング手段
24 動画解析手段
25 状態遷移管理手段
26 人物属性推定手段
27 ログファイル出力手段
3 デジタルサイネージ
3a ディスプレイ装置
4 ビデオカメラ
5 ネットワーク
6 状態遷移表
2 広告効果測定装置
20 背景除去手段
21 顔検出手段
22 人体検出手段
23 トラッキング手段
24 動画解析手段
25 状態遷移管理手段
26 人物属性推定手段
27 ログファイル出力手段
3 デジタルサイネージ
3a ディスプレイ装置
4 ビデオカメラ
5 ネットワーク
6 状態遷移表
Claims (11)
- ディスプレイの広告効果を測定する広告効果測定装置であって,
前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定装置。 - 前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,請求項1に記載の広告効果測定装置。
- 前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,請求項1又は請求項2に記載の広告効果測定装置。
- 前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,請求項3に記載の広告効果測定装置。
- 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,請求項1から請求項4のいずれか一つに記載の広告効果測定装置。
- 前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,請求項1から請求項5のいずれか一つに記載の広告効果測定装置。
- 前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,請求項1から請求項6のいずれか一つに記載の広告効果測定装置。
- 前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする請求項1から請求項7のいずれか一つに記載の広告効果測定装置。
- 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,請求項1から請求項8のいずれか一つに記載の広告効果測定装置。
- 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,請求項1から請求項9のいずれか一つに記載の広告効果測定装置。
- ディスプレイの前にいる人物を撮影するカメラと,前記カメラが撮影した映像に含まれるフレームを解析することで,前記ディスプレイの広告効果を測定する広告効果測定装置とから少なくとも構成される広告効果測定システムであって,
前記広告効果測定装置は,
前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010033410A JP2011070629A (ja) | 2009-08-25 | 2010-02-18 | 広告効果測定システム及び広告効果測定装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009194371 | 2009-08-25 | ||
JP2010033410A JP2011070629A (ja) | 2009-08-25 | 2010-02-18 | 広告効果測定システム及び広告効果測定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011070629A JP2011070629A (ja) | 2011-04-07 |
JP2011070629A5 true JP2011070629A5 (ja) | 2012-11-29 |
Family
ID=44015810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010033410A Pending JP2011070629A (ja) | 2009-08-25 | 2010-02-18 | 広告効果測定システム及び広告効果測定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011070629A (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5385845B2 (ja) * | 2010-04-26 | 2014-01-08 | 日本電信電話株式会社 | コンテンツ注目度算出装置、コンテンツ注目度算出方法、およびコンテンツ注目度算出プログラム |
US8620088B2 (en) * | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
US10650405B2 (en) * | 2017-03-21 | 2020-05-12 | Kellogg Company | Media content tracking |
JP6919405B2 (ja) | 2017-08-10 | 2021-08-18 | トヨタ自動車株式会社 | デジタルサイネージ制御装置、デジタルサイネージ制御方法、プログラム、記録媒体 |
JP7265202B2 (ja) * | 2019-08-29 | 2023-04-26 | 富士通株式会社 | 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置 |
CN110674719B (zh) * | 2019-09-18 | 2022-07-26 | 北京市商汤科技开发有限公司 | 目标对象匹配方法及装置、电子设备和存储介质 |
CN111275002A (zh) * | 2020-02-18 | 2020-06-12 | 上海商汤临港智能科技有限公司 | 一种图像处理方法、装置及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105835A (ja) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | 物体認識方法及び物体追跡監視装置 |
JP2005277726A (ja) * | 2004-03-24 | 2005-10-06 | Toshiba Corp | 画像監視装置 |
JP4603975B2 (ja) * | 2005-12-28 | 2010-12-22 | 株式会社春光社 | コンテンツ注目評価装置及び評価方法 |
JP4769943B2 (ja) * | 2006-03-30 | 2011-09-07 | 国立大学法人電気通信大学 | 物体追跡装置、異常状態検知装置及び物体追跡方法 |
JP2009077064A (ja) * | 2007-09-19 | 2009-04-09 | Fujifilm Corp | 監視方法および監視装置 |
JP4934861B2 (ja) * | 2008-01-28 | 2012-05-23 | 日本電気株式会社 | 表示システム、表示方法、表示効果測定システム、及び、表示効果測定方法。 |
-
2010
- 2010-02-18 JP JP2010033410A patent/JP2011070629A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10204264B1 (en) | Systems and methods for dynamically scoring implicit user interaction | |
JP4702877B2 (ja) | 表示装置 | |
WO2021135196A1 (zh) | 展示区域的状态识别方法、装置、电子设备及存储介质 | |
JP2011210238A (ja) | 広告効果測定装置及びコンピュータプログラム | |
JP5476955B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
US7787011B2 (en) | System and method for analyzing and monitoring 3-D video streams from multiple cameras | |
US7944454B2 (en) | System and method for user monitoring interface of 3-D video streams from multiple cameras | |
JP2011070629A5 (ja) | ||
CN108965982A (zh) | 视频录制方法、装置、电子设备和可读存储介质 | |
JP2011070629A (ja) | 広告効果測定システム及び広告効果測定装置 | |
WO2016187888A1 (zh) | 基于字符识别的关键词通知方法及设备、计算机程序产品 | |
JP5391951B2 (ja) | 顔検出結果分析システム,顔検出結果分析装置及びコンピュータプログラム | |
JP6589321B2 (ja) | システム、検索方法およびプログラム | |
WO2021143228A1 (zh) | 数据推送方法、装置、电子设备、计算机存储介质和计算机程序 | |
CN107430780A (zh) | 用于基于视频内容特性的输出创建的方法 | |
CN113766330A (zh) | 基于视频生成推荐信息的方法和装置 | |
US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
JP2010211485A (ja) | 注視度合測定装置、注視度合測定方法、注視度合測定プログラムおよびそのプログラムを記録した記録媒体 | |
Xue et al. | Feature design for aesthetic inference on photos with faces | |
JP2013195725A (ja) | 画像表示システム | |
CN110850974A (zh) | 用于侦测意图兴趣点的方法及其*** | |
JP6536643B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP5962383B2 (ja) | 画像表示システムおよび画像処理装置 | |
KR101513180B1 (ko) | 감시카메라 영상을 이용한 실시간 결제 이벤트 요약 시스템 및 그 방법 | |
JP5850188B2 (ja) | 画像表示システム |