JP5272213B2 - ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM - Google Patents

ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5272213B2
JP5272213B2 JP2010105791A JP2010105791A JP5272213B2 JP 5272213 B2 JP5272213 B2 JP 5272213B2 JP 2010105791 A JP2010105791 A JP 2010105791A JP 2010105791 A JP2010105791 A JP 2010105791A JP 5272213 B2 JP5272213 B2 JP 5272213B2
Authority
JP
Japan
Prior art keywords
face
face direction
area
camera
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010105791A
Other languages
Japanese (ja)
Other versions
JP2011233119A (en
Inventor
哲也 杵渕
啓之 新井
直己 伊藤
章 鈴木
秀樹 小池
慎吾 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010105791A priority Critical patent/JP5272213B2/en
Publication of JP2011233119A publication Critical patent/JP2011233119A/en
Application granted granted Critical
Publication of JP5272213B2 publication Critical patent/JP5272213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide technique for attaining attribute identification which is robust with respect to a face direction of a subject and has rapid processing speed and accurately identifying a subjective age group in age group identification of the subject. <P>SOLUTION: An advertisement effect measurement apparatus 3 includes: a congestion degree measurement engine 14 for performing by pixel unit, signal processing of an imaging image imaged by a congestion degree measurement camera 1a for imaging a first area close to an advertisement medium, and measuring the number of staying persons within the first area; a face direction estimation engine 18 for detecting face areas in the imaged image imaged by a face direction estimation camera 1b for imaging a second area being a part of the first area, estimating the face direction of each face area, and measuring the number of viewers of the advertisement medium within the second area; and a statistic analysis information generation part 23 for generating statistic analysis information 24 indicating an effect of the advertisement medium, based on a congestion degree measurement camera area cover rate, a face direction estimation camera area cover rate, a measurement value of a first image processing means, and a measurement value of a second image processing means. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

本発明は、広告効果測定装置、広告効果測定方法およびプログラムに関する。特に、本発明は、本発明は、カメラを用いて広告効果を測定する広告効果測定装置、広告効果測定方法およびプログラムに関する。   The present invention relates to an advertisement effect measuring device, an advertisement effect measuring method, and a program. In particular, the present invention relates to an advertisement effect measuring device, an advertisement effect measuring method, and a program for measuring an advertisement effect using a camera.

カメラを用いた広告効果測定装置は、基本的に、以下の2つの方法を利用し、広告を視聴したと思われる人数を測定する。
(1)画素単位の信号処理をベースとした人数計測
フレーム間処理に基づき画像から前景領域を取得し、当該領域が何人分の人物に相当するのかを、予め各画素に与えられた荷重値に基づいて算出する方法である(例えば、特許文献1参照)。当該方法では、1人の人物に対して、小さな画像サイズ(例えば、数画素〜10画素程度)を割り当てれば足りるため、人数計測の対象エリアを比較的広くすることができる。例えば、解像度VGA(640×480)のカメラを用いる場合、対象エリアは100m四方程度となる。
(2)人間の顔等の物体検出をベースとした人数計測
画像から顔を認識する過程において、付帯情報として各顔の向き(顔方向)、性別、年代などの人物属性を推定する方法である。当該方法では、推定された顔方向に基づいて、広告の方向を向いている人数、即ち、広告を視聴している可能性が高い人数を計測する。また、当該方法では、推定された人物属性に基づいて、性別毎、年代毎の広告効果を推計する。
An advertisement effect measuring apparatus using a camera basically uses the following two methods to measure the number of people who seem to have viewed an advertisement.
(1) Number of people measurement based on pixel-by-pixel signal processing Foreground areas are acquired from images based on inter-frame processing, and how many people the area corresponds to is assigned to each pixel in advance. This is a calculation method based on this (see, for example, Patent Document 1). In this method, since it is sufficient to allocate a small image size (for example, about several pixels to 10 pixels) to one person, the target area for counting people can be made relatively wide. For example, when a camera with resolution VGA (640 × 480) is used, the target area is about 100 m square.
(2) Counting people based on object detection such as human face In the process of recognizing a face from an image, it is a method of estimating personal attributes such as the direction (face direction), gender, age, etc. of each face as supplementary information . In this method, based on the estimated face direction, the number of people facing the direction of the advertisement, that is, the number of people who are likely to view the advertisement is measured. In this method, the advertising effect for each gender and each age is estimated based on the estimated person attribute.

特開2009−294755号公報JP 2009-294755 A

しかしながら、上記の方法は以下の問題がある。
(1)の方法は、人物の顔方向、即ち、広告を視聴していそうなのか否かを推定することができない。また、性別、年代などの人物属性を推定することができない。
(2)の方法は、人物の顔方向と属性とを推定することができるが、それを実現するため顔領域に対してある程度の画像サイズ(例えば、20画素×20画素〜40画素×40画素)が割り当てる必要がある。従って、人数計測の対象エリアは比較的狭くなる。例えば、解像度VGAのカメラを用いる場合、対象エリアは10m四方程度となる。
However, the above method has the following problems.
The method (1) cannot estimate the face direction of a person, that is, whether or not an advertisement is likely to be viewed. Also, it is impossible to estimate personal attributes such as gender and age.
The method (2) can estimate the face direction and attributes of a person. To achieve this, a certain image size (for example, 20 pixels × 20 pixels to 40 pixels × 40 pixels) with respect to the face area is realized. ) Must be assigned. Therefore, the target area for counting people is relatively narrow. For example, when a camera with a resolution VGA is used, the target area is about 10 m square.

本発明は、このような事情を考慮してなされたものであり、その目的は、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現する技術を提供することにある。また、被写体の年齢層識別において、主観年齢層を精度良く識別できる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for realizing attribute identification that is robust and fast in processing speed with respect to the face direction of a subject. It is another object of the present invention to provide a technology that can accurately identify a subjective age group in identifying an age group of a subject.

上述した課題を解決するために、本発明は、広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理手段と、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理手段と、前記広告媒体の視聴可能エリアのうち前記第1のカメラの撮影範囲の占める割合である第1のカメラエリアカバー率と、前記広告媒体の視聴可能エリアのうち前記第2のカメラの撮影範囲の占める割合である第2のカメラエリアカバー率と、前記第1の画像処理手段によって計測した前記滞在者数と、前記第2の画像処理手段によって計測した前記視聴者数とに基づいて、前記広告媒体の効果を示す広告効果情報として、注目率、延べ滞在人秒、延べ視聴人秒、又は、人秒ベースの注目率を生成して出力する広告効果情報生成手段とを備え、前記広告効果情報生成手段は、前記注目率を、注目率=(視聴者数/第1のカメラエリアカバー率)/(滞在者数/第2のカメラエリアカバー率)によって求め、前記延べ滞在人秒を、所定の時間間隔において計測した前記滞在者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、前記延べ視聴人秒を、前記時間間隔において計測した前記視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、前記人秒ベースの注目率を、人秒ベースの注目率=(延べ視聴人秒/延べ滞在人秒)によって求めることを特徴とするTo solve the above problems, the present onset Ming, an image captured by a first camera that captures the first area in the vicinity of the advertising medium to the signal processing for each pixel, the first area A face area in a captured image captured by a first image processing means for measuring the number of visitors and a second area that captures a second area that is a part of the first area. Second image processing means for detecting and estimating the face direction of each face area and measuring the number of viewers of the advertising medium in the second area, and the first of the viewing possible areas of the advertising medium. A first camera area cover ratio that is a ratio of the shooting range of the camera, and a second camera area cover ratio that is a ratio of the shooting range of the second camera in the viewable area of the advertising medium , said first image processing means Wherein the resident number measured Te, based on said number of viewers measured by said second image processing means, as the advertisement effect information indicating the effect of the advertising media, interest rate, total stay Personality sec, Total viewer Advertisement effect information generating means for generating and outputting an attention rate based on a person second or a person second , and the advertisement effect information generation means determines the attention rate as the attention rate = (number of viewers / first number of viewers). Camera area coverage ratio / (number of visitors / second camera area coverage ratio), calculated by multiplying the total number of visitor seconds by the number of visitors measured at a predetermined time interval and the time interval. The total number of viewer seconds is multiplied by the number of viewers measured in the time interval and the time interval, and the calculated value is integrated in the unit time. By doing Te calculated, the attention rate of the person second base, and obtaining the human seconds based interest rate = (Total viewer's sec / total staying Personality seconds).

本発明は、前記第2の画像処理手段は、前記第2のカメラの撮像画像を取得する撮像画像取得手段と、前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数する顔方向推定手段とを有する。 In the present invention, the second image processing means includes a picked-up image acquisition means for acquiring a picked-up image of the second camera, a face region detected from the picked-up image of the second camera, and face cut-out image data. Based on the recognition face area detection means to output and the face cut-out image data output by the recognition face area detection means, the face direction of the subject of the captured image of the second camera is estimated, and the face direction There that having a the face direction estimating means for counting the number of viewers as the viewers who match the direction of the advertising medium.

本発明は、前記第2の画像処理手段は、学習用データとして、種々の方向から撮像された顔画像データ、前記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、前記被写体の属性データを取得する学習用データ取得手段と、前記学習用データ取得手段によって取得された前記顔画像データから、被写体の顔領域を検出して切り出した顔切出画像データを出力する学習用顔領域検出手段と、前記学習用顔領域検出手段によって出力された前記顔切出画像データであって前記学習用顔方向パラメータが同一である複数の前記顔切出画像データと、当該複数の顔切出画像データそれぞれの前記属性データとに基づいて、前記被写体の顔方向別に、前記被写体の属性を識別する属性識別器を生成する顔方向別属性識別器生成手段と、前記顔方向別属性識別器生成手段によって生成された前記属性識別器を記憶する顔方向別属性識別器記憶手段と、前記第2のカメラの撮像画像を取得する撮像画像取得手段と、前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数するとともに、前記被写体の顔方向を示す属性識別用顔方向パラメータを出力する顔方向推定手段と、前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記前記第2のカメラの撮像画像から、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する認識用顔領域再検出手段と、前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記顔方向別属性識別器記憶手段に記憶されている複数の前記属性識別器のなかから1または2以上の前記属性識別器を選択し、当該選択した1または2以上の前記属性識別器に、前記認識用顔領域再検出手段が出力した前記顔切出画像データを入力し、前記前記第2のカメラの撮像画像の被写体に係る識別結果を取得する属性識別手段とを有し、人物属性別の視聴者数を算出する In the present invention, the second image processing means includes, as learning data, face image data captured from various directions, a learning face direction parameter indicating the face direction of the subject of the face image data, and the attribute of the subject. Learning data acquisition means for acquiring data, and learning face area detection for detecting face area of a subject and outputting cut-out face image data from the face image data acquired by the learning data acquisition means A plurality of face cut-out image data that are the face cut-out image data output by the learning face region detection means and have the same learning face direction parameter, and the plurality of face cut-out images. A direction-specific attribute classifier generating unit that generates an attribute classifier for identifying the attribute of the subject for each face direction of the subject based on the attribute data of each of the data; A face direction attribute classifier storage unit that stores the attribute classifier generated by the direction attribute classifier generation unit, a captured image acquisition unit that acquires a captured image of the second camera, and the second camera A recognition face area detection means for detecting a face area from the captured image and outputting face cut image data; and the second face cut image data output by the recognition face area detection means. A face for attribute identification indicating the face direction of the subject while estimating the face direction of the subject of the captured image of the camera, counting the number of viewers with the face direction matching the direction of the advertising medium as a viewer A face direction estimation unit that outputs a direction parameter; and a face area of a subject from a captured image of the second camera based on the attribute identification face direction parameter output by the face direction estimation unit. A face area re-detection unit for recognition that outputs face-cut image data that has been detected and cut out, and the face direction attribute classifier based on the attribute identification face direction parameter output by the face direction estimation unit One or more attribute classifiers are selected from the plurality of attribute classifiers stored in the storage means, and the recognition face area is re-detected to the selected one or more attribute classifiers. Attribute identification means for inputting the face cut-out image data output by the means and obtaining an identification result relating to the subject of the image captured by the second camera, and calculating the number of viewers by person attribute .

本発明は、前記広告効果情報生成手段は、前記時間間隔において計測した前記人物属性別の視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって人物属性別の延べ視聴人秒を求め、前記人物属性別の延べ視聴人秒を、前記広告媒体の効果を示す広告効果情報として出力することを特徴とする。In the present invention, the advertisement effect information generating means multiplies the number of viewers for each person attribute measured in the time interval and the time interval, and integrates the calculated value within a unit time. Another total viewer second is obtained, and the total viewer second for each person attribute is output as advertisement effect information indicating the effect of the advertisement medium.

本発明は、前記広告効果情報生成手段は、前記広告媒体の設置場所に係る場所属性情報として、前記滞在者数に係る性別比率、年代比率、又は性別と年代とを組み合わせた属性区分比率を算出する。 In the present invention, the advertisement effect information generation means calculates a gender ratio, age ratio, or attribute classification ratio combining gender and age related to the number of visitors as the location attribute information related to the installation location of the advertisement medium. you.

本発明は、広告媒体の効果を測定するために、第1の画像処理手段と、第2の画像処理手段と、広告効果情報生成手段とを備える広告効果測定装置における広告効果指標測定方法であって、前記第1の画像処理手段が、前記広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理ステップと、前記第2の画像処理手段が、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理ステップと、前記広告効果情報生成手段が、前記広告媒体の視聴可能エリアのうち前記第1のカメラの撮影範囲の占める割合である第1のカメラエリアカバー率と、前記広告媒体の視聴可能エリアのうち前記第2のカメラの撮影範囲の占める割合である第2のカメラエリアカバー率と、前記第1の画像処理ステップによって計測した前記滞在者数と、前記第2の画像処理ステップによって計測した前記視聴者数とに基づいて、前記広告媒体の効果を示す広告効果情報として、注目率、延べ滞在人秒、延べ視聴人秒、又は、人秒ベースの注目率を生成して出力する広告効果情報生成ステップとを有し、前記広告効果情報生成ステップでは、前記注目率を、注目率=(視聴者数/第1のカメラエリアカバー率)/(滞在者数/第2のカメラエリアカバー率)によって求め、前記延べ滞在人秒を、所定の時間間隔において計測した前記滞在者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、前記延べ視聴人秒を、前記時間間隔において計測した前記視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、前記人秒ベースの注目率を、人秒ベースの注目率=(延べ視聴人秒/延べ滞在人秒)によって求めることを特徴とする。 The present invention is an advertisement effect index measuring method in an advertisement effect measuring apparatus comprising a first image processing means, a second image processing means, and an advertisement effect information generating means in order to measure the effect of an advertisement medium. Te, the first image processing means, wherein an image captured by a first camera that captures the first area in the vicinity of the advertising medium to the signal processing in the pixel unit, staying within the first area The first image processing step for measuring the number of persons and the second image processing means are captured by a second camera that captures a second area that is a part of the first area. A second image processing step of detecting a face area in the captured image, estimating a face direction of each face area, and measuring the number of viewers of the advertising medium in the second area; and generating the advertisement effect information means, viewing Allowed of the advertising medium A first camera area coverage ratio is the ratio of the imaging range of the first camera of the area, the second is a ratio of the shooting range of the second camera of the viewable area of the advertising medium a camera area coverage ratio, wherein the first image processing the resident number measured by step, based on said number of viewers measured by the second image processing step, the advertisement effect showing the effect of the advertising medium As the information, there is an advertisement effect information generation step for generating and outputting an attention rate, total number of visitors seconds, total number of viewers seconds, or attention rate based on person seconds, and in the advertisement effect information generation step, The rate is calculated by attention rate = (number of viewers / first camera area coverage) / (number of visitors / second camera area coverage), and the total number of visitors is set to a predetermined time interval. Multiplying the number of visitors measured by the time interval and adding the calculated values within a unit time, the total number of viewer seconds is the number of viewers measured in the time interval and the time Multiplying by time interval, and adding the calculated values within unit time, and calculating the person-second-based attention rate by the person-second-based attention rate = (total viewer seconds / total visitor seconds) It is characterized by seeking .

本発明は、前記広告効果測定装置の処理をコンピュータに実行させるためのプログラムである。 The present invention is a program for executing the processing of the advertisement effect measurement device to the computer.

本発明によれば、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。また、被写体の年齢層識別において、主観年齢層を精度良く識別できるようになる。   According to the present invention, it is possible to realize attribute identification that is robust and fast in processing speed with respect to the face direction of the subject. Further, the subjective age group can be accurately identified in the age group identification of the subject.

本発明の一実施形態による広告効果測定装置3の設置環境の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the installation environment of the advertising effectiveness measuring apparatus 3 by one Embodiment of this invention. 広告効果測定装置3の構成例を示す構成図である。2 is a configuration diagram illustrating a configuration example of an advertisement effect measuring device 3. FIG. カメラ制御に関連する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process relevant to camera control. 混雑度計測エンジン14のチューニングに関連する処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing related to tuning of a congestion degree measurement engine 14; 顔方向推定エンジン18のチューニングに関連する処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of processing related to tuning of the face direction estimation engine 18; 性別と年代とを組み合わせた区分け方法の一例である。It is an example of a classification method that combines gender and age. 効果の測定に関連する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process relevant to the measurement of an effect. 統計解析情報の生成に関連する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process relevant to the production | generation of statistical analysis information. 注目率について説明するための説明図である。It is explanatory drawing for demonstrating an attention rate. GSTについて説明するための説明図である。It is explanatory drawing for demonstrating GST. GVTについて説明するための説明図である。It is explanatory drawing for demonstrating GVT. 統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。It is explanatory drawing for demonstrating the output example of the statistical analysis information in a statistical analysis information generation process. 統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。It is explanatory drawing for demonstrating the output example of the statistical analysis information in a statistical analysis information generation process. 顔方向推定エンジン18の構成の一例を示す機能ブロック図である。3 is a functional block diagram illustrating an example of a configuration of a face direction estimation engine 18. FIG. 認識用顔領域再検出部124の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of the face area redetection part for recognition. 年齢層識別を説明するための説明図である。It is explanatory drawing for demonstrating age group identification. 年齢層識別を説明するための説明した説明図である。It is explanatory drawing demonstrated for demonstrating age group identification. 顔方向推定エンジン18の動作の一例を示すフローチャートである。5 is a flowchart showing an example of the operation of the face direction estimation engine 18.

以下、本発明の一実施形態について図面を参照して説明する。図1は、本発明の一実施形態による広告効果測定装置3の設置環境の一例を説明するための説明図である。図1において、1aは混雑度計測カメラ、1bは顔方向推定カメラ、2はテレビ、デジタルサイネージ、看板、ポスター、張り紙などの広告媒体(ディスプレイ)、3は広告効果推定装置である。混雑度計測カメラ1aおよび顔方向推定カメラ1bは、データ送受信用ケーブルを介して、測定効果推定装置3と接続している。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram for explaining an example of an installation environment of an advertisement effect measuring apparatus 3 according to an embodiment of the present invention. In FIG. 1, 1a is a congestion degree measuring camera, 1b is a face direction estimating camera, 2 is an advertising medium (display) such as a television, digital signage, a signboard, a poster, and a sticker, and 3 is an advertising effect estimating device. The congestion degree measurement camera 1a and the face direction estimation camera 1b are connected to the measurement effect estimation device 3 via a data transmission / reception cable.

広告効果測定装置3は、画素単位の信号処理をベースとした人数計測を行う画像処理装置(後述する、混雑度計測エンジン14)と、人間の顔検出をベースとした人数計測を行う画像処理装置(後述する、顔方向推定エンジン18)を兼ね備える。換言すれば、広告効果測定装置3は、混雑度計測エンジン14および顔方向推定エンジン18を含んで構成される。広告効果測定装置3は、例えば、パーソナルコンピュータである。   The advertisement effect measuring device 3 includes an image processing device (congestion degree measurement engine 14 to be described later) that measures the number of people based on pixel-based signal processing, and an image processing device that measures the number of people based on human face detection. (The face direction estimation engine 18 described later) is also provided. In other words, the advertisement effect measuring apparatus 3 includes the congestion degree measuring engine 14 and the face direction estimating engine 18. The advertisement effect measuring device 3 is, for example, a personal computer.

混雑度計測カメラ1aは、広告媒体2の近傍を撮像するカメラである。広告媒体2の近傍とは、広告媒体2の広告視聴可能エリアの少なくとも一部のエリアを含むエリアである。広告視聴可能エリアとは、広告媒体2の種類、大きさ、設置場所の特性などに応じて異なるが、当該広告媒体によって広告しようとする広告内容が視聴者に伝わる範囲である。例えば、広場に面したビルの壁面に設置した大型の看板の場合、該広場の全域で該看板の広告内容がわかるのであれば、どんなに該ビルからの水平距離が離れていても、該広場全体が当該看板の近傍に該当する。また、例えば、屋内の矩形の支柱の一の面に設置した看板の場合、どんなに該支柱に近い位置であっても、該看板が見えない該一の面の反対側の面側は、該看板の近傍に該当しない。   The congestion degree measurement camera 1 a is a camera that captures an image of the vicinity of the advertising medium 2. The vicinity of the advertisement medium 2 is an area including at least a part of the advertisement viewable area of the advertisement medium 2. The advertisement viewable area is a range in which the contents of advertisement to be advertised by the advertisement medium are transmitted to the viewer, although it differs depending on the type, size, installation location characteristics, and the like of the advertisement medium 2. For example, in the case of a large signboard installed on the wall of a building facing a square, if the advertising content of the signboard can be understood throughout the square, no matter how far the horizontal distance from the building is, the entire square Corresponds to the vicinity of the signboard. Also, for example, in the case of a signboard installed on one surface of an indoor rectangular column, the surface side opposite to the one surface where the sign cannot be seen no matter how close to the column is the signboard Does not fall in the vicinity of

顔方向推定カメラ1bもまた、広告媒体2の近傍を撮像するカメラである。但し、混雑度計測カメラ1aの撮影範囲(「第1のエリア」に相当、以下、混雑度計測カメラ撮影範囲という)と、顔方向推定カメラ1bの撮影範囲(「第2のエリア」に相当。以下、顔方向推定カメラ撮影範囲という)は、互いに異なる。   The face direction estimation camera 1b is also a camera that images the vicinity of the advertising medium 2. However, the shooting range of the congestion degree measurement camera 1a (corresponding to the “first area”, hereinafter referred to as the congestion degree measurement camera shooting range) and the shooting range of the face direction estimation camera 1b (corresponding to the “second area”). Hereinafter, the face direction estimation camera shooting range) is different from each other.

混雑度計測カメラ撮影範囲は、広告視聴可能エリアの全体又は広告視聴可能エリアの一部である。顔方向推定カメラ撮影範囲は、混雑度計測カメラ撮影範囲の一部である。なお、広告媒体2と混雑度計測カメラ1aとの位置関係などによっては、図1に示すように、混雑度計測カメラ撮影範囲が、広告視聴可能エリア外のエリアを含む場合があるが、混雑度計測カメラ撮影範囲における広告視聴可能エリア外の占める割合は、広告視聴可能エリア内の占める割合に比べ非常に小さく、無視できる程度である。仮に、広告視聴可能エリア外の占める割合が非常に小さいとまでは言えない程度であっても、後述するように、混雑度計測チューニング部13において、フレーム画像における混雑度計測の対象範囲(即ち、フレーム画像の全領域のうち混雑度計測の計測対象範囲)の指定が可能であるため、広告視聴可能エリア外が撮像されることについて無視することできる。顔方向推定カメラ撮影範囲についても同様である。
従って、顔方向推定カメラ撮影範囲も混雑度計測カメラ撮影範囲も、広告視聴可能エリア内について考えればよく、顔方向推定カメラ撮影範囲は、混雑度計測カメラ撮影範囲よりも狭いということになる。
The crowding degree measurement camera photographing range is the entire advertisement viewable area or a part of the advertisement viewable area. The face direction estimation camera shooting range is a part of the congestion degree measurement camera shooting range. Depending on the positional relationship between the advertising medium 2 and the congestion degree measuring camera 1a, the crowding degree measuring camera shooting range may include an area outside the advertisement viewable area as shown in FIG. The proportion of the measurement camera shooting range outside the advertisement viewable area is much smaller than the proportion of the advertisement viewable area and can be ignored. Even if the proportion of the area outside the advertisement viewable area is not very small, as will be described later, in the congestion degree measurement tuning unit 13, the congestion measurement target range in the frame image (that is, Since it is possible to specify the measurement target range of the degree of congestion measurement in the entire area of the frame image, it can be ignored that the outside of the advertisement viewable area is imaged. The same applies to the face direction estimation camera shooting range.
Therefore, both the face direction estimation camera shooting range and the congestion degree measurement camera shooting range need only be considered within the advertisement viewable area, and the face direction estimation camera shooting range is narrower than the congestion degree measurement camera shooting range.

混雑度計測カメラ1aは、撮像画像(後述する、フレーム画像)を広告効果測定装置3に提供する。同様に、顔方向推定カメラ1bは、フレーム画像を広告効果測定装置3に提供する。   The congestion degree measurement camera 1 a provides a captured image (a frame image, which will be described later) to the advertisement effect measuring device 3. Similarly, the face direction estimation camera 1b provides the frame image to the advertisement effect measuring device 3.

なお、図1には、混雑度カメラ1aを1台示したが、混雑度カメラ1aは複数台のカメラから構成されるものであってもよい。顔方向推定カメラ1bについても同様である。また、混雑度計測カメラ1aと顔方向推定カメラ1bとは、機器としては同一のものであってもよい。   Although one congestion degree camera 1a is shown in FIG. 1, the congestion degree camera 1a may be composed of a plurality of cameras. The same applies to the face direction estimation camera 1b. Further, the congestion degree measuring camera 1a and the face direction estimating camera 1b may be the same device.

図2は、広告効果測定装置3の構成例を示す構成図である。広告効果測定装置3は、図2に示すように、カメラ制御部12、混雑度計測チューニング部13、混雑度計測エンジン14、顔方向推定チューニング部17、顔方向推定エンジン18、クライアント部19、混雑度計測エンジン制御部20、顔方向推定エンジン制御部21および統計解析情報生成部23を備える。   FIG. 2 is a configuration diagram illustrating a configuration example of the advertisement effect measuring device 3. As shown in FIG. 2, the advertisement effect measuring apparatus 3 includes a camera control unit 12, a congestion level measurement tuning unit 13, a congestion level measurement engine 14, a face direction estimation tuning unit 17, a face direction estimation engine 18, a client unit 19, a congestion. A degree measurement engine control unit 20, a face direction estimation engine control unit 21, and a statistical analysis information generation unit 23.

カメラ制御部12は、混雑度計測カメラ1aからフレーム画像を取得する。カメラ制御部12は、混雑度計測カメラ1aから取得したフレーム画像を混雑度計測チューニング13および混雑度計測エンジン制御部20に出力する。また、カメラ制御部12は、顔方向推定カメラ1bからフレーム画像を取得する。カメラ制御部12は、顔方向推定カメラ1bから取得したフレーム画像を顔方向推定チューニング部17および顔方向推定エンジン制御部21に出力する。   The camera control unit 12 acquires a frame image from the congestion degree measuring camera 1a. The camera control unit 12 outputs the frame image acquired from the congestion degree measurement camera 1 a to the congestion degree measurement tuning 13 and the congestion degree measurement engine control unit 20. In addition, the camera control unit 12 acquires a frame image from the face direction estimation camera 1b. The camera control unit 12 outputs the frame image acquired from the face direction estimation camera 1b to the face direction estimation tuning unit 17 and the face direction estimation engine control unit 21.

混雑度計測エンジン14は、上述の如く、画素単位の信号処理をベースとした人数計測を行う画像処理機能を備える。混雑度計測エンジン14は、フレーム画像を取得した場合、上記画像処理機能によって混雑度を計測し、計測結果を出力する。より詳細には、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を取得した場合、当該フレーム画像に撮像されたエリア、即ち、混雑度計測カメラ撮影範囲内の画素単位を信号処理し、混雑度計測カメラ撮影範囲内の滞在者数を混雑度として計測し、計測結果として出力する。   As described above, the congestion degree measurement engine 14 has an image processing function for performing the number of people measurement based on pixel-based signal processing. When acquiring the frame image, the congestion degree measurement engine 14 measures the congestion degree by the image processing function and outputs the measurement result. More specifically, when the congestion level measurement engine 14 acquires the frame image output from the congestion level measurement camera 1a, the congestion level measurement engine 14 determines the area captured in the frame image, that is, the pixel unit in the congestion level measurement camera shooting range. Signal processing is performed, and the number of visitors within the photographing range of the congestion degree measurement camera is measured as the degree of congestion and output as a measurement result.

例えば、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を混雑度計測チューニング部13から取得した場合、混雑度計測カメラ撮影範囲内の滞在者数を混雑度計測チューニング部13に出力する。また、例えば、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を混雑度エンジン制御部20から取得した場合、混雑度計測カメラ撮影範囲内の滞在者数を混雑度エンジン制御部20に出力する。   For example, when the congestion level measurement engine 14 acquires the frame image output from the congestion level measurement camera 1 a from the congestion level measurement tuning unit 13, the congestion level measurement tuning unit 13 calculates the number of visitors within the imaging range of the congestion level measurement camera. Output to. Further, for example, when the congestion level measurement engine 14 acquires the frame image output from the congestion level measurement camera 1a from the congestion level engine control unit 20, the congestion level engine control is performed on the number of visitors within the shooting range of the congestion level measurement camera. To the unit 20.

顔方向推定エンジン18は、上述の如く、人間の顔検出をベースとした人数計測を行う画像処理機能を有する。顔方向推定エンジン18は、フレーム画像を取得した場合、上記画像処理機能によって広告媒体2の視聴者数を計測し、計測結果を出力する。より詳細には、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を取得した場合、当該フレーム画像に撮像されたエリア、即ち、顔方向推定カメラ撮影範囲内の顔領域の検出処理と、検出された顔領域内の顔方向の推定処理とにより、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を計測し、計測結果として出力する。   As described above, the face direction estimation engine 18 has an image processing function for performing the number counting based on human face detection. When the frame direction is acquired, the face direction estimation engine 18 measures the number of viewers of the advertising medium 2 by using the image processing function and outputs the measurement result. More specifically, when the face direction estimation engine 18 acquires the frame image output from the face direction estimation camera 1b, the face direction estimation engine 18 captures the area captured in the frame image, that is, the face area within the face direction estimation camera shooting range. The number of viewers of the advertising medium 2 in the face direction estimation camera shooting range is measured by the detection process and the face direction estimation process in the detected face area, and is output as a measurement result.

例えば、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を顔方向推定チューニング部17から取得した場合、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を顔方向推定チューニング部17に出力する。また、例えば、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を顔方向推定エンジン制御部21から取得した場合、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を顔方向推定エンジン制御部21に出力する。   For example, when the face direction estimation engine 18 acquires the frame image output from the face direction estimation camera 1b from the face direction estimation tuning unit 17, the face direction estimation engine 18 calculates the number of viewers of the advertising medium 2 within the face direction estimation camera shooting range. Output to the estimation tuning unit 17. Also, for example, when the face direction estimation engine 18 acquires the frame image output from the face direction estimation camera 1b from the face direction estimation engine control unit 21, the number of viewers of the advertising medium 2 within the face direction estimation camera shooting range. Is output to the face direction estimation engine control unit 21.

なお、顔方向推定エンジン18は、人物属性別の視聴者数を計測し、計測結果として出力することもできる。   The face direction estimation engine 18 can also measure the number of viewers for each person attribute and output the result as a measurement result.

混雑度計測チューニング部13は、混雑度計測エンジン14のパラメータのチューニング機能を備える。即ち、混雑度計測チューニング部13は、カメラ制御部12を介して取得した混雑度計測カメラ1aからのフレーム画像を混雑度計測エンジン14に出力し、混雑度計測エンジン14から応答として計測結果を取得する。混雑度計測チューニング部13は、混雑度計測エンジン14から取得した計測結果を非図示のモニタ部を介して、又はネットワークを介して設定者に出力し、設定者に計測結果を確認させて、設定者から混雑度計測エンジン14の適切なパラメータ値の設定を受け付ける。   The congestion degree measurement tuning unit 13 includes a parameter tuning function of the congestion degree measurement engine 14. In other words, the congestion level measurement tuning unit 13 outputs the frame image from the congestion level measurement camera 1a acquired via the camera control unit 12 to the congestion level measurement engine 14, and acquires the measurement result as a response from the congestion level measurement engine 14. To do. The congestion level measurement tuning unit 13 outputs the measurement result acquired from the congestion level measurement engine 14 to a setter via a monitor unit (not shown) or via a network, and allows the setter to check the measurement result to set. An appropriate parameter value setting of the congestion degree measurement engine 14 is received from a person.

顔方向推定チューニング部17は、顔方向推定エンジン18のパラメータのチューニング機能を有する。即ち、顔方向推定チューニング部17は、カメラ制御部12を介して取得した顔方向推定カメラ1bからのフレーム画像を顔方向推定エンジン18に出力し、顔方向推定エンジン18から応答として計測結果を取得する。顔方向推定チューニング部17は、顔方向推定エンジン18から取得した計測結果を非図示のモニタ部を介して、又はネットワークを介して設定者に出力し、設定者に計測結果を確認させて、設定者から顔方向推定エンジン18の適切なパラメータ値の設定を受け付ける。   The face direction estimation tuning unit 17 has a parameter tuning function of the face direction estimation engine 18. That is, the face direction estimation tuning unit 17 outputs the frame image from the face direction estimation camera 1b acquired via the camera control unit 12 to the face direction estimation engine 18, and acquires the measurement result as a response from the face direction estimation engine 18. To do. The face direction estimation tuning unit 17 outputs the measurement result acquired from the face direction estimation engine 18 to a setter via a monitor unit (not shown) or via a network, and allows the setter to check the measurement result to set An appropriate parameter value setting of the face direction estimation engine 18 is received from a person.

混雑度計測エンジン制御部20は、クライアント部19によって起動され、カメラ制御部12を介して取得した混雑度計測カメラ1aからのフレーム画像を混雑度計測エンジン14に出力し、混雑度計測エンジン14から応答として計測結果を取得する。混雑度計測エンジン制御部20は、混雑度計測エンジン14から取得した計測結果をクライアント部19に出力する。   The congestion level measurement engine control unit 20 is activated by the client unit 19 and outputs a frame image from the congestion level measurement camera 1 a acquired via the camera control unit 12 to the congestion level measurement engine 14. Get the measurement result as a response. The congestion level measurement engine control unit 20 outputs the measurement result acquired from the congestion level measurement engine 14 to the client unit 19.

顔方向推定エンジン制御部21は、クライアント部19によって起動され、カメラ制御部12を介して取得した顔方向推定カメラ1bからのフレーム画像を顔方向推定エンジン18に出力し、顔方向推定エンジン18から応答として計測結果を取得する。顔方向推定エンジン制御部21は、顔方向推定エンジン18から取得した計測結果をクライアント部19に出力する。   The face direction estimation engine control unit 21 is activated by the client unit 19, and outputs a frame image from the face direction estimation camera 1 b acquired via the camera control unit 12 to the face direction estimation engine 18. Get the measurement result as a response. The face direction estimation engine control unit 21 outputs the measurement result acquired from the face direction estimation engine 18 to the client unit 19.

クライアント部19は、混雑度計測エンジン14から出力された計測結果を混雑度計測エンジン制御部20から取得する。また、クライアント部19は、顔方向推定エンジン18から出力された計測結果を顔方向推定エンジン制御部21から取得する。クライアント部19は、混雑度計測エンジン制御部20から取得した計測結果と、顔方向推定エンジン制御部21から取得した計測結果とを時系列に対応付けて効果測定データ22として出力する。つまり、クライアント部19によって出力される効果測定データ22は、混雑度計測エンジン14と顔方向推定エンジン18の各計測結果が時系列に記載されているデータである。   The client unit 19 acquires the measurement result output from the congestion degree measurement engine 14 from the congestion degree measurement engine control unit 20. In addition, the client unit 19 acquires the measurement result output from the face direction estimation engine 18 from the face direction estimation engine control unit 21. The client unit 19 outputs the measurement result acquired from the congestion degree measurement engine control unit 20 and the measurement result acquired from the face direction estimation engine control unit 21 in time series as effect measurement data 22. That is, the effect measurement data 22 output by the client unit 19 is data in which the measurement results of the congestion degree measurement engine 14 and the face direction estimation engine 18 are described in time series.

統計解析情報生成部23は、クライアント部19から出力される効果測定データ22を取得する。統計解析情報生成部23は、効果測定データ22に基づいて広告効果情報として統計解析情報24を生成し、出力する。統計解析情報24は、広告媒体2の効果を示す情報であって、広告効果指標又は場所属性情報を所定の集計期間(時間)、集計方法に従って集計し、若しくは、広告効果指標又は場所属性情報を集計することなく、人間に分りやすい表示形式によって表したものである。   The statistical analysis information generation unit 23 acquires the effect measurement data 22 output from the client unit 19. The statistical analysis information generation unit 23 generates and outputs statistical analysis information 24 as advertisement effect information based on the effect measurement data 22. The statistical analysis information 24 is information indicating the effect of the advertising medium 2, and totals the advertising effect index or the place attribute information according to a predetermined counting period (time) and counting method, or the advertising effect index or the place attribute information. It is expressed in a display format that is easy for humans to understand without counting.

広告効果指標は、効果測定データ22から得られる広告効果を示す指標である。広告効果指標には、例えば、注目率、述べ滞在人秒(GST:GrossStayingTime)、延べ視聴人秒(GVT::GrossViewingTime)などがある。上記注目率には、後述の下記式(1)に従って算出される注目率、後述の下記式(2)に従って算出される注目率(人秒ベースの注目率とも称する)などがある。なお、上記注目率などと人物属性とを組み合わせたものも広告効果指標である。即ち、例えば、人物属性別の注目率なども広告効果指標である。人物属性の一例は、性別、年代、男女と年代とを組み合わせた属性区分比率である。   The advertisement effect index is an index indicating the advertisement effect obtained from the effect measurement data 22. Examples of the advertisement effect index include an attention rate, a staying person second (GST), a total viewer time (GVT :). The attention rate includes an attention rate calculated according to the following formula (1) described later, an attention rate calculated according to the following formula (2) described later (also referred to as a human-second based attention rate), and the like. A combination of the attention rate and the person attribute is also an advertisement effect index. That is, for example, the attention rate for each person attribute is also an advertisement effect index. An example of a person attribute is an attribute classification ratio that combines gender, age, and sex and age.

場所属性情報は、効果測定データ22から得られる場所の属性を示す情報である。具体的には、広告効果指標は、混雑度計測エンジン制御部20から出力される滞在者に関する情報であるが、顔方向に関係なく、顔領域の検出数、即ち滞在者数を顔方向推定エンジン制御部21に出力させるようにした場合には、当該滞在者に関する情報も用いることができる。場所属性情報には、例えば、混雑度、顔数、男女比率、年代比率、上記属性区分比率などがある。   The location attribute information is information indicating the location attribute obtained from the effect measurement data 22. Specifically, the advertisement effect index is information regarding a visitor output from the congestion degree measurement engine control unit 20, but the number of detected face areas, that is, the number of visitors is determined by the face direction estimation engine regardless of the face direction. When outputting to the control part 21, the information regarding the said visitor can also be used. The location attribute information includes, for example, the degree of congestion, the number of faces, the sex ratio, the age ratio, the attribute classification ratio, and the like.

所定の集計期間の一例は、1時間単位、又は、1日単位である。所定の集計方法の一例は、曜日別の集計、平日/週末別の集計、又は、曜日を考慮しない集計である。   An example of the predetermined counting period is an hour unit or a day unit. An example of the predetermined aggregation method is aggregation by day of the week, aggregation by weekday / weekend, or aggregation not considering the day of the week.

図3は、カメラ制御に関連する処理の一例を示すフローチャートである。なお、図3に示すカメラ設定ファイル31は、カメラに関するパラメータを記述した設定ファイルであって、混雑度計測カメラ1aのパラメータと顔方向推定カメラ1bのパラメータを個別に設定可能である。カメラ設定ファイル31には、例えば、「カメラタイプ」「IPカメラ設定項目」「USBカメラの設定項目」「解像度」「画像品質」「フレームレート」「色空間、圧縮形式」などの設定項目がある。カメラタイプには、使用するカメラのタイプ(USBカメラ/IPカメラ)の別を設定する。IPカメラを設定した場合、IPカメラ設定項目には、当該カメラのIPアドレス、ポート番号、アクセスのためのユーザ名、パスワード、当該カメラのデバイス名等を設定する。USBカメラを設定した場合、USBカメラの設定項目には、当該カメラのデバイス名等を設定する。また、解像度、画像品質、フレームレート、色空間、圧縮形式には、それぞれ、取得するフレーム画像の解像度、画像品質、フレームレート、色空間、圧縮形式を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。   FIG. 3 is a flowchart illustrating an example of processing related to camera control. Note that the camera setting file 31 shown in FIG. 3 is a setting file in which parameters relating to the camera are described, and the parameters of the congestion degree measuring camera 1a and the parameters of the face direction estimating camera 1b can be individually set. The camera setting file 31 includes setting items such as “camera type”, “IP camera setting item”, “USB camera setting item”, “resolution”, “image quality”, “frame rate”, “color space, compression format”, and the like. . In the camera type, the type of the camera to be used (USB camera / IP camera) is set. When an IP camera is set, the IP camera setting item includes an IP address, a port number, a user name for access, a password, a device name of the camera, and the like. When a USB camera is set, the device name of the camera is set in the USB camera setting item. Further, the resolution, image quality, frame rate, color space, and compression format of the acquired frame image are set in the resolution, image quality, frame rate, color space, and compression format, respectively. Note that the above setting items are examples for implementation, and the present invention is not limited to these.

図3において、カメラ制御部12は、カメラタイプ選択処理として、カメラ設定ファイル31に従い、混雑度計測カメラ1aおよび顔方向推定カメラとして利用するカメラタイプをそれぞれ選択する(ステップS32)。次いで、カメラ制御部12は、カメラ設定処理として、カメラ設定ファイル31に従い、混雑度計測カメラ1aおよび顔方向推定カメラ1bに対し、解像度や画像品質などカメラに関するパラメータをそれぞれ設定(書き込む。以下、同様)する(ステップS33)。   In FIG. 3, the camera control unit 12 selects a camera type to be used as the congestion degree measurement camera 1a and the face direction estimation camera according to the camera setting file 31 as a camera type selection process (step S32). Next, the camera control unit 12 sets (writes) camera parameters such as resolution and image quality for the congestion degree measurement camera 1a and the face direction estimation camera 1b according to the camera setting file 31 as camera setting processing. (Step S33).

次いで、カメラ制御部12は、フレーム画像取得要求受領処理として、外部からのフレーム画像取得要求34を受領する(ステップS35)。次いで、カメラ制御部12は、フレーム画像取得処理として、カメラタイプ選択処理32およびカメラ設定処理33で設定した項目に従って、混雑度計測カメラ1aまたは顔方向推定カメラ1bにアクセスし、フレーム画像を取得する(ステップS36)。次いで、カメラ制御部12は、フレーム画像送信処理として、フレーム画像取得要求34の送信元に対し、フレーム画像を送信する(ステップS37)。そして、本フローチャートは終了する。   Next, the camera control unit 12 receives an external frame image acquisition request 34 as a frame image acquisition request reception process (step S35). Next, as a frame image acquisition process, the camera control unit 12 accesses the congestion degree measurement camera 1a or the face direction estimation camera 1b according to the items set in the camera type selection process 32 and the camera setting process 33, and acquires a frame image. (Step S36). Next, the camera control unit 12 transmits a frame image to the transmission source of the frame image acquisition request 34 as a frame image transmission process (step S37). Then, this flowchart ends.

なお、混雑度計測カメラ1a、顔方向推定1aが複数台のカメラから構成される場合、カメラ制御部12は、カメラ設定処理をカメラ毎に実施する(ステップS33)。また、混雑度計測カメラ1a、顔方向推定1aが複数台のカメラから構成される場合、カメラ制御部12は、フレーム画像取得処理(ステップS36)において、複数台のカメラから取得した画像を1枚の画像に合成する。画像の合成処理方法としては、単純に複数のフレームを並べて繋ぎ合せる方法、画像から特徴点を抽出してそれらの対応問題を解き、画像間の変形を射影変換で近似して重ね合わせる方法などが挙げられる(参考文献1参照)。   When the congestion degree measuring camera 1a and the face direction estimation 1a are configured by a plurality of cameras, the camera control unit 12 performs camera setting processing for each camera (step S33). When the congestion measuring camera 1a and the face direction estimation 1a are composed of a plurality of cameras, the camera control unit 12 captures one image acquired from the plurality of cameras in the frame image acquisition process (step S36). To the image. Examples of image composition processing methods include a method of simply arranging a plurality of frames side by side, a method of extracting feature points from images and solving their correspondence problems, and approximating deformation between images by projective transformation and superimposing them. (See Reference 1).

(参考文献1)
“局所的な輝度変動にロバストなパノラマ画像生成法”星野准一、電子情報通信学会論文誌.D−II,情報・システム,II−情報処理 J82−D−II(2)pp.222−229 19990225
(Reference 1)
“Robust panoramic image generation method for local luminance fluctuation”, Junichi Hoshino, IEICE Transactions. D-II, information / system, II-information processing J82-D-II (2) pp. 222-229 19990225

図4は、混雑度計測エンジン14のチューニングに関連する処理の一例を示すフローチャートである。なお、図4に示すカメラキャリブレーションデータファイル16は、混雑度計測カメラ1aの校正作業で得られる当該カメラの焦点距離、画像中心、レンズ歪み、カメラ姿勢、カメラ位置などのカメラパラメータ、カメラパラメータにもとづき算出された荷重値(それぞれの画素が何人分に該当するのかを表す値)を記憶したファイルである。カメラキャリブレーションデータファイル16は、例えば、外部から取得する。なお、荷重値算出などの詳細は、上記特許文献1に記載されている。   FIG. 4 is a flowchart illustrating an example of processing related to tuning of the congestion degree measurement engine 14. Note that the camera calibration data file 16 shown in FIG. 4 includes camera parameters such as focal length, image center, lens distortion, camera posture, and camera position, and camera parameters obtained by the calibration operation of the congestion degree measurement camera 1a. It is a file that stores load values (values representing how many people each pixel corresponds) calculated based on. The camera calibration data file 16 is acquired from the outside, for example. The details such as the load value calculation are described in Patent Document 1.

図4において、混雑度計測チューニング部13は、混雑度計測エンジンパラメータ設定処理として、混雑度計測エンジン14に関するパラメータを設定する(ステップS40)。具体的には、例えば、混雑度計測チューニング部13は、背景領域作成時に使用するフレーム画像数、サンプリング間隔などの混雑度計測エンジン14で使用する種々のパラメータを設定し、また、フレーム画像における混雑度計測の対象範囲(即ち、フレーム画像の全領域のうち混雑度計測の計測対象範囲)を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。混雑度計測チューニング部13は、設定した値を混雑度計測エンジンパラメータファイル41に記憶する。   In FIG. 4, the congestion degree measurement tuning unit 13 sets parameters relating to the congestion degree measurement engine 14 as the congestion degree measurement engine parameter setting process (step S40). Specifically, for example, the congestion degree measurement tuning unit 13 sets various parameters used by the congestion degree measurement engine 14 such as the number of frame images used at the time of creating the background region, the sampling interval, and the congestion in the frame images. The target range of the degree measurement (that is, the measurement target range of the congestion degree measurement among all the regions of the frame image) is set. Note that the above setting items are examples for implementation, and the present invention is not limited to these. The congestion level measurement tuning unit 13 stores the set value in the congestion level measurement engine parameter file 41.

次いで、混雑度計測チューニング部13は、混雑度計測エンジン14に混雑度計測処理を要求する。具体的には、混雑度計測チューニング部13は、フレーム画像、カメラキャリブレーションデータファイル16、混雑度計測エンジンパラメータファイル41を混雑度計測エンジン14に出力する。混雑度計測チューニング部13からフレーム画像等を取得した混雑度計測エンジン14は、混雑度計測処理として、画素単位の信号処理をベースとして人数計測する(ステップS42)。具体的には、混雑度計測エンジン14は、フレーム間処理に基づいて、フレーム画像から前景領域を取得し、当該領域が何人分の人物に相当するのかを、カメラキャリブレーションデータファイル16に記載された、予め各画素に与えられている荷重値に基づいて算出する。なお、混雑度計測処理の詳細は、上記特許文献1(例えば、明細書の0053〜0056)に記載されている。混雑度計測結果43には、処理時刻、混雑度(人数)、滞留人数などが含まれる。混雑度計測エンジン14は、混雑度計測結果43を混雑度計測チューニング部13に出力する。   Next, the congestion level measurement tuning unit 13 requests the congestion level measurement engine 14 to perform a congestion level measurement process. Specifically, the congestion degree measurement tuning unit 13 outputs a frame image, a camera calibration data file 16, and a congestion degree measurement engine parameter file 41 to the congestion degree measurement engine 14. The congestion degree measurement engine 14 that has acquired the frame image and the like from the congestion degree measurement tuning unit 13 measures the number of people based on the signal processing in units of pixels as the congestion degree measurement process (step S42). Specifically, the congestion degree measurement engine 14 acquires the foreground area from the frame image based on the inter-frame processing, and the number of persons corresponding to the area is described in the camera calibration data file 16. The calculation is performed based on the load value given to each pixel in advance. The details of the congestion degree measurement process are described in Patent Document 1 (for example, 0053 to 0056 of the specification). The congestion degree measurement result 43 includes a processing time, a congestion degree (number of people), a staying number of people, and the like. The congestion level measurement engine 14 outputs the congestion level measurement result 43 to the congestion level measurement tuning unit 13.

次いで、混雑度計測チューニング部13は、混雑度計測結果確認処理として、前景領域検出結果、滞留領域検出結果、混雑度、滞留人数を画像、グラフ、表によってリアルタイム表示し、目視によって人間に確認させることによって、混雑度計測エンジン14の適切なパラメータ値の設定を受け付ける(ステップS44)。混雑度計測結果確認処理では、目視可能な態様によって、混雑度計測対象範囲をフレーム画像に重畳表示する。即ち、混雑度計測結果確認処理は、前景領域、滞留領域はそれぞれ異なる色でフレーム画像に重畳して表示し、混雑度計測エンジンパラメータ設定処理(上述のステップS40)で設定した前景領域又は滞留領域検出用パラメータの妥当性を確認する処理である。   Next, the congestion level measurement tuning unit 13 displays the foreground area detection result, the stay area detection result, the congestion level, and the number of people staying in real time as images, graphs, and tables as a congestion level measurement result confirmation process, and allows a human to check visually. Thus, the setting of an appropriate parameter value of the congestion degree measurement engine 14 is accepted (step S44). In the congestion level measurement result confirmation process, the congestion level measurement target range is superimposed and displayed on the frame image in a visible manner. In other words, in the congestion level measurement result confirmation process, the foreground area and the stay area are displayed in a different color superimposed on the frame image, and the foreground area or the stay area set in the congestion level measurement engine parameter setting process (step S40 described above). This is a process for confirming the validity of the detection parameters.

次いで、混雑度計測チューニング部13は、チューニングを完了するか否かを判断する(ステップS45)。例えば、混雑度計測チューニング部13は、設定されたパラメータが妥当であるか否かの妥当性を確認し、妥当であると確認した場合に、チューニングを完了すると判断する。混雑度計測チューニング部13は、チューニングを完了しないと判断した場合(ステップS45:No)、ステップS40に戻る。一方、混雑度計測チューニング部13は、チューニングを完了すると判断した場合(ステップS45:Yes)、最終的なパラメータを混雑度計測エンジンパラメータファイル46として記載し、本フローチャートは終了する。   Next, the congestion degree measurement tuning unit 13 determines whether or not the tuning is completed (step S45). For example, the congestion degree measurement tuning unit 13 checks the validity of whether or not the set parameter is valid, and determines that the tuning is completed when it is confirmed that the parameter is valid. When the congestion degree measurement tuning unit 13 determines that the tuning is not completed (step S45: No), the congestion degree measurement tuning unit 13 returns to step S40. On the other hand, if the congestion degree measurement tuning unit 13 determines that the tuning is completed (step S45: Yes), the final parameter is described as the congestion degree measurement engine parameter file 46, and this flowchart ends.

図5は、顔方向推定エンジン18のチューニングに関連する処理の一例を示すフローチャートである。図6は、性別と年代とを組み合わせた区分け方法の一例である。図5において、顔方向推定チューニング部17は、顔方向推定エンジンパラメータ設定処理として、顔方向推定エンジン18に関するパラメータを設定する(ステップS60)。具体的には、例えば、顔方向推定チューニング部17は、検出する顔の大きさの最大サイズ、最小サイズ、検出する顔の角度範囲、広告方向を向いているか否かの判定基準パラメータなどの顔方向推定エンジン18で使用する種々のパラメータを設定し、また、フレーム画像における顔方向推定の対象範囲(即ち、フレーム画像の全領域のうち顔方向推定の推定対象範囲)を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。顔方向推定チューニング部17は、設定した値を顔方向推定エンジンパラメータファイル61に記載する。   FIG. 5 is a flowchart illustrating an example of processing related to tuning of the face direction estimation engine 18. FIG. 6 is an example of a classification method combining gender and age. In FIG. 5, the face direction estimation tuning unit 17 sets parameters related to the face direction estimation engine 18 as the face direction estimation engine parameter setting process (step S60). Specifically, for example, the face direction estimation tuning unit 17 determines the face such as the maximum size and the minimum size of the face to be detected, the angle range of the face to be detected, and the determination criterion parameter as to whether or not it is facing the advertisement direction. Various parameters used by the direction estimation engine 18 are set, and a target range for face direction estimation in the frame image (that is, a target range for estimation of face direction in the entire area of the frame image) is set. Note that the above setting items are examples for implementation, and the present invention is not limited to these. The face direction estimation tuning unit 17 describes the set value in the face direction estimation engine parameter file 61.

次いで、顔方向推定チューニング部17は、顔方向推定エンジン18に顔方向推定処理を要求する。具体的には、顔方向推定チューニング部17は、フレーム画像、顔方向推定エンジンパラメータファイル61を顔方向推定エンジン18に出力する。顔方向推定チューニング部17からフレーム画像等を取得した顔方向推定エンジン18は、顔方向推定処理として、顔方向推定エンジンパラメータファイル61に従って、フレーム画像から人物の顔領域の検出し、人数を計測する(ステップS62)。なお、顔方向推定エンジン18は、顔の数だけでなく、顔の角度、広告方向を向いているか否かの判定基準パラメータに従って、広告の方向を向いている顔の数(以降、正面顔の数という)の計測、性別、年代などの推定も可能である。当該処理は、下記参考文献2−4等に記載されている方法に基づいて実現可能である。   Next, the face direction estimation tuning unit 17 requests a face direction estimation process from the face direction estimation engine 18. Specifically, the face direction estimation tuning unit 17 outputs a frame image and a face direction estimation engine parameter file 61 to the face direction estimation engine 18. The face direction estimation engine 18 that has acquired the frame image and the like from the face direction estimation tuning unit 17 detects the face area of the person from the frame image and measures the number of persons according to the face direction estimation engine parameter file 61 as face direction estimation processing. (Step S62). The face direction estimation engine 18 determines not only the number of faces but also the angle of the face, the number of faces facing the direction of the advertisement (hereinafter referred to as the front face) according to the determination criterion parameter of whether or not the direction of the advertisement is directed. Measurement), gender, age, etc. are also possible. This process can be realized based on the method described in the following References 2-4 and the like.

(参考文献2)
“サポートベクトル回帰を用いた三次元物体の姿勢推定法”安藤慎吾、草地良規、鈴木章、荒川賢一、電子情報通信学会論文誌D−II、Vol.J89−D No.8、pp.1840−1847、2006.
(参考文献3)
“同時確率増分符号相関による高速物体検出・識別”安藤慎吾、鈴木章、高橋裕子、安野貴之、MIRU2007.
(参考文献4)
“顔画像による自動性別・年代推定”瀧川えりな、細井聖、OMRON TECHNICS Vol.43 No.1(通巻145号)2003.
(Reference 2)
“Pose Estimation Method for 3D Objects Using Support Vector Regression” Shingo Ando, Yoshinori Kusachi, Akira Suzuki, Kenichi Arakawa, IEICE Transactions D-II, Vol. J89-D No. 8, pp. 1840-1847, 2006.
(Reference 3)
“Fast object detection and identification by joint probability incremental code correlation” Shingo Ando, Akira Suzuki, Yuko Takahashi, Takayuki Anno, MIRU2007.
(Reference 4)
“Automatic gender and age estimation from face images” Erina Kajikawa, Kiyoshi Hosoi, OMRON TECHNICS Vol. 43 No. 1 (Volume 145) 2003.

なお、顔方向推定結果63には、処理時刻、検出された顔の数、正面顔の数、性別毎の顔の数、性別毎の正面顔の数、年代毎の顔の数、年代毎の正面顔の数、検出された顔の性別年代、各顔の正面向きとして検出された時間の累積(注視時間)、各顔の注視開始時刻、注視終了時刻などが含まれる。顔方向推定エンジン18は、顔方向推定結果63を顔方向推定チューニング部17に出力する。   The face direction estimation result 63 includes the processing time, the number of detected faces, the number of front faces, the number of faces for each gender, the number of front faces for each gender, the number of faces for each age, and the number for each age. The number of front faces, sex age of the detected face, accumulation of time detected as the front direction of each face (gaze time), gaze start time of each face, gaze end time, and the like are included. The face direction estimation engine 18 outputs the face direction estimation result 63 to the face direction estimation tuning unit 17.

次いで、顔方向推定チューニング部17は、顔方向推定結果確認処理として、顔検出結果、顔方向推定結果63、性別推定結果、年代推定結果、顔の数、正面顔の数、性別毎の顔の数、性別毎の正面顔の数、年代毎の顔の数、年代毎の正面顔の数、注視時間、性別年代毎の注視時間などを画像、グラフ、表によってリアルタイム表示し、目視によって人間に確認させることによって、顔方向推定エンジン18の適切なパラメータ値の設定を受け付ける(ステップS64)。顔方向推定結果確認処理は、目視可能な態様によって、顔方向推定処理の対象範囲をフレーム画像に重畳表示する。即ち、顔方向推定結果確認処理は、顔検出結果、顔方向推定結果63、性別推定結果、年代推定結果、注視時間はフレーム画像に重畳して表示し、顔方向推定エンジンパラメータ設定処理(上述のステップS60)で設定したパラメータの妥当性を確認する処理である。   Next, the face direction estimation tuning unit 17 performs face detection result confirmation processing, face detection result 63, face direction estimation result 63, gender estimation result, age estimation result, number of faces, number of front faces, face of each gender. Number, number of front faces by gender, number of faces by age, number of front faces by age, gaze time, gaze time by gender age, etc. are displayed in real time with images, graphs, tables, etc. By confirming, the setting of an appropriate parameter value of the face direction estimation engine 18 is accepted (step S64). In the face direction estimation result confirmation process, the target range of the face direction estimation process is superimposed and displayed on the frame image in a visible manner. That is, the face direction estimation result confirmation process is performed by displaying the face detection result, the face direction estimation result 63, the gender estimation result, the age estimation result, and the gaze time superimposed on the frame image, and the face direction estimation engine parameter setting process (described above). This is processing for confirming the validity of the parameters set in step S60).

なお、年代の区分け方法としては、10歳代、20歳代、など10歳刻みに年代を区分けする方法、若年層、壮年層、老年層などおおまかに年代を区分けする方法、図6に示すような広告業界で広く用いられている性別と年代を組み合わせた区分け方法などがある。   In addition, as a method of classifying the age, a method of classifying the age in increments of 10 years, such as 10s, 20s, etc., a method of roughly classifying the age, such as younger, older, and older, as shown in FIG. There are classification methods that combine gender and age that are widely used in the advertising industry.

次いで、顔方向推定チューニング部17は、チューニングを完了するか否かを判断する(ステップS65)。例えば、顔方向推定チューニング部17は、設定されたパラメータが妥当であるか否かの妥当性を確認し、妥当であると確認した場合に、チューニングを完了すると判断する。顔方向推定チューニング部17は、チューニングを完了しないと判断した場合(ステップS65:No)、ステップS60に戻る。一方、顔方向推定チューニング部17は、チューニングを完了すると判断した場合(ステップS65:Yes)、最終的な顔方向推定エンジンパラメータファイル66として記載し、本フローチャートは終了する。   Next, the face direction estimation tuning unit 17 determines whether or not the tuning is completed (step S65). For example, the face direction estimation tuning unit 17 checks the validity of whether the set parameter is valid, and determines that the tuning is completed when it is confirmed that the parameter is valid. When the face direction estimation tuning unit 17 determines that the tuning is not completed (step S65: No), the face direction estimation tuning unit 17 returns to step S60. On the other hand, when the face direction estimation tuning unit 17 determines that the tuning is completed (step S65: Yes), it is described as the final face direction estimation engine parameter file 66, and this flowchart ends.

図7は、効果の測定に関連する処理の一例を示すフローチャートである。なお、図7に示す混雑度計測エンジンパラメータファイル46は、図4に示すように、混雑度計測チューニング部13によって記憶されたパラメータファイルである。また、顔方向推定エンジンパラメータファイル66は、図5に示すように、顔方向推定チューニング部17によって記憶されたパラメータファイルである。   FIG. 7 is a flowchart illustrating an example of processing related to effect measurement. The congestion degree measurement engine parameter file 46 shown in FIG. 7 is a parameter file stored by the congestion degree measurement tuning unit 13 as shown in FIG. The face direction estimation engine parameter file 66 is a parameter file stored by the face direction estimation tuning unit 17 as shown in FIG.

図7において、クライアント部19は、効果測定クライアントパラメータ設定処理として、効果測定クライアントに関するパラメータを設定する(ステップS70)。具体的には、例えば、クライアント部19は、カメラ設置場所、識別番号を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。   In FIG. 7, the client unit 19 sets parameters relating to the effect measurement client as the effect measurement client parameter setting process (step S70). Specifically, for example, the client unit 19 sets a camera installation location and an identification number. Note that the above setting items are examples for implementation, and the present invention is not limited to these.

次いで、顔方向推定エンジン制御部21は、顔方向推定エンジン制御処理として、クライアント部19からの指示に基づいて、顔方向推定エンジン18を起動する(ステップS71)。顔方向推定エンジン18を起動した顔方向推定エンジン制御部21は、顔方向推定チューニング部17と同様に、顔方向推定エンジン18に顔方向推定処理を要求する。   Next, the face direction estimation engine control unit 21 activates the face direction estimation engine 18 based on an instruction from the client unit 19 as face direction estimation engine control processing (step S71). The face direction estimation engine control unit 21 that has activated the face direction estimation engine 18 requests the face direction estimation engine 18 to perform a face direction estimation process, similarly to the face direction estimation tuning unit 17.

次いで、顔方向推定エンジン18は、顔方向推定エンジンパラメータファイル66に従って、図5に示す顔方向推定処理と同様、フレーム画像から人物の顔領域の検出し、人数を計測する(ステップS62)。顔方向推定エンジン18は、顔方向推定結果63を顔方向推定エンジン制御部21に出力する。   Next, the face direction estimation engine 18 detects the face area of the person from the frame image and measures the number of persons according to the face direction estimation engine parameter file 66 as in the face direction estimation process shown in FIG. 5 (step S62). The face direction estimation engine 18 outputs the face direction estimation result 63 to the face direction estimation engine control unit 21.

次いで、混雑度計測エンジン制御部20は、混雑度計測エンジン制御処理として、クライアント部19からの指示に基づいて、混雑度計測エンジン14を起動する(ステップS72)。混雑度計測エンジン14を起動した混雑度計測エンジン制御部20は、混雑度計測チューニング部13と同様に、混雑度計測エンジン14に混雑度計測処理を要求する。   Next, the congestion level measurement engine control unit 20 starts the congestion level measurement engine 14 based on an instruction from the client unit 19 as a congestion level measurement engine control process (step S72). The congestion degree measurement engine control unit 20 that has activated the congestion degree measurement engine 14 requests the congestion degree measurement engine 14 to perform the congestion degree measurement process, similarly to the congestion degree measurement tuning unit 13.

次いで、混雑度計測エンジン14は、混雑度計測エンジンパラメータファイル46等に従って、図4に示す顔方向推定処理と同様、画素単位の信号処理をベースとして人数計測する(ステップS42)。混雑度計測エンジン14は、混雑度計測結果43を混雑度計測エンジン制御部20に出力する。   Next, the congestion degree measuring engine 14 counts the number of people based on the signal processing in units of pixels in the same manner as the face direction estimating process shown in FIG. 4 according to the congestion degree measuring engine parameter file 46 and the like (step S42). The congestion degree measurement engine 14 outputs the congestion degree measurement result 43 to the congestion degree measurement engine control unit 20.

次いで、クライアント部19は、混雑度計測/顔方向推定結果取得処理として、顔方向推定エンジン制御部21から顔方向推定結果63を取得し、混雑度計測エンジン制御部20から混雑度計測結果43を取得する(ステップS73)。なお、クライアント部19は、顔方向推定結果63と混雑度計測結果43とを同じタイミングで取得してもよいし、異なるタイミングで取得してもよい。つまり、顔方向推定結果63および混雑度計測結果43の各取得タイミングを同期させてもよいし、非同期とさせてもよい。   Next, the client unit 19 acquires the face direction estimation result 63 from the face direction estimation engine control unit 21 as the congestion degree measurement / face direction estimation result acquisition process, and the congestion degree measurement result 43 from the congestion degree measurement engine control unit 20. Obtain (step S73). Note that the client unit 19 may acquire the face direction estimation result 63 and the congestion degree measurement result 43 at the same timing or at different timings. That is, the acquisition timings of the face direction estimation result 63 and the congestion degree measurement result 43 may be synchronized or may be asynchronous.

次いで、クライアント部19は、効果測定データ作成処理として、顔方向推定結果63と混雑度計測結果43とから、効果測定データ22を作成する(ステップS74)。そして、本フローチャートは終了する。なお、効果測定データ22は、カメラ設置場所を示すデータを含むデータであって、顔方向推定結果63と混雑度計測結果43とが時系列に記載されているデータである。   Next, the client unit 19 creates the effect measurement data 22 from the face direction estimation result 63 and the congestion degree measurement result 43 as the effect measurement data creation process (step S74). Then, this flowchart ends. The effect measurement data 22 is data including data indicating the camera installation location, and is data in which the face direction estimation result 63 and the congestion degree measurement result 43 are described in time series.

図8は、統計解析情報の生成に関連する処理の一例を示すフローチャートである。図8に示すように、統計解析情報生成部23は、統計解析情報生成処理として、効果測定データ22、混雑度計測カメラエリアカバー率81、顔方向推定カメラエリアカバー率82に基づいて、統計解析情報24を算出する。   FIG. 8 is a flowchart illustrating an example of processing related to generation of statistical analysis information. As shown in FIG. 8, the statistical analysis information generation unit 23 performs statistical analysis as statistical analysis information generation processing based on the effect measurement data 22, the congestion degree measurement camera area coverage 81, and the face direction estimation camera area coverage 82. Information 24 is calculated.

混雑度計測カメラエリアカバー率81は、混雑度計測を実施したいエリアのうち、どの程度の割合のエリアを混雑度計測カメラ1aで撮影しているかを示す値(パーセンテージ)である。つまり、図1の例において、混雑度計測カメラエリアカバー率81は、広告視聴可能エリアのうち混雑度計測カメラ撮影範囲の占める割合に相当する。   The congestion degree measurement camera area cover rate 81 is a value (percentage) indicating how much of the area in which the congestion degree measurement is desired to be taken by the congestion degree measurement camera 1a. That is, in the example of FIG. 1, the congestion degree measurement camera area coverage rate 81 corresponds to the ratio of the congestion degree measurement camera shooting range in the advertisement viewable area.

顔方向推定カメラエリアカバー率82は、顔方向推定を実施したいエリアのうち、どの程度の割合のエリアを顔方向推定カメラ1bで撮影しているかを示す値(パーセンテージ)である。具体的には、図1の例において、顔方向推定カメラエリアカバー率82は、広告視聴可能エリアのうち顔方向推定カメラ撮影範囲の占める割合に相当する。   The face direction estimation camera area coverage 82 is a value (percentage) indicating how much of the area in which the face direction estimation is to be performed is captured by the face direction estimation camera 1b. Specifically, in the example of FIG. 1, the face direction estimation camera area coverage 82 corresponds to the proportion of the advertisement viewable area occupied by the face direction estimation camera shooting range.

統計解析情報生成処理には、種々の方法が考えられる。統計解析情報生成処理の最も単純な方法は、滞在者数および視聴者数を集計し、滞在者数および視聴者数を用いた統計解析情報24を生成する方法もある。即ち、上記方法は、効果測定データ22をそのまま利用し、統計解析情報24を生成する方法である。   Various methods are conceivable for the statistical analysis information generation processing. The simplest method of the statistical analysis information generation process is a method of counting the number of visitors and the number of viewers and generating statistical analysis information 24 using the number of visitors and the number of viewers. That is, the above method is a method of generating the statistical analysis information 24 using the effect measurement data 22 as it is.

統計解析情報生成処理の他の方法として、広告効果指標である注目率を算出し、統計解析情報24とする方法、若しくは、注目率を集計し、注目率を用いた統計解析情報24を生成する方法もある。以下、注目率の算出方法を説明する。図9は、注目率について説明するための説明図である。   As another method of the statistical analysis information generation process, the attention rate that is the advertising effect index is calculated and used as the statistical analysis information 24, or the attention rate is aggregated, and the statistical analysis information 24 using the attention rate is generated. There is also a method. Hereinafter, a method of calculating the attention rate will be described. FIG. 9 is an explanatory diagram for explaining the attention rate.

図9(a)は、混雑度計測カメラ1aおよび顔方向推定カメラ1bの撮影範囲を表している。図9(a)に示すように、混雑度計測カメラ撮影範囲は、広告視聴可能エリアの100[%]であるものとし、顔方向推定カメラ撮影範囲は、広告視聴可能エリアの50[%]であって、かつ、混雑度計測カメラ撮影範囲に包含されているものとする。また、混雑度計測処理と顔方向推定処理は1秒間隔で同期して実行されているとする。   FIG. 9A shows the photographing ranges of the congestion degree measuring camera 1a and the face direction estimating camera 1b. As shown in FIG. 9A, it is assumed that the crowd measurement camera shooting range is 100 [%] of the advertisement viewable area, and the face direction estimation camera shooting range is 50 [%] of the advertisement viewable area. In addition, it is assumed that it is included in the photographing range of the congestion degree measurement camera. Further, it is assumed that the congestion degree measurement process and the face direction estimation process are executed in synchronization at intervals of 1 second.

図9(b)は、広告を視聴している人数等の推移を表している。図9(b)において、横軸は時間[秒]である。外側の矩形内の黒丸は、各時刻における混雑度計測カメラ撮影範囲内に存在する人物を表し、内側の矩形内の黒丸は、各時刻における顔方向推定カメラ撮影範囲内に存在する人物を表している。黒丸と黒丸とを結ぶ線、即ち、同一人物の異なる時刻を結ぶ線のうち、一重線は当該人物が広告の方向を向いていないことを表し、二重線は当該人物が広告の方向を向いていることを表している。なお、図9(b)のGSTおよびGVTについては後述する。   FIG. 9B shows changes in the number of people viewing the advertisement. In FIG. 9B, the horizontal axis represents time [seconds]. The black circle in the outer rectangle represents a person existing in the crowd measurement camera shooting range at each time, and the black circle in the inner rectangle represents a person present in the face direction estimation camera shooting range at each time Yes. Of the lines connecting the black circles and the black circles, that is, lines connecting different times of the same person, the single line indicates that the person is not facing the direction of the advertisement, and the double line indicates that the person is facing the direction of the advertisement It represents that. Note that GST and GVT in FIG. 9B will be described later.

図9(b)に示すように、時刻t1では、A〜Jの10名が混雑度計測カメラ撮影範囲内に存在し、うちG〜Jの4名が顔方向推定カメラ撮影範囲に存在しているものとする。F、Jは時刻t1で広告の方向を向いているものとする。他の8名(A〜E、G〜I)は広告の方向を向いていないものとする。時刻t2〜時刻t10では、A〜Iの9名が混雑度計測カメラ撮影範囲から立ち去り、J1名のみが顔方向推定カメラ撮影範囲に存在し、継続して広告の方向を向いているものとする。   As shown in FIG. 9B, at time t1, 10 persons A to J are present in the crowded degree measurement camera photographing range, and four persons G to J are present in the face direction estimation camera photographing range. It shall be. It is assumed that F and J are facing the direction of the advertisement at time t1. The other eight persons (A to E and G to I) are not facing the direction of the advertisement. From time t2 to time t10, it is assumed that nine people A to I have left the crowded degree measurement camera shooting range, and only J1 is present in the face direction estimation camera shooting range and is continuously facing the direction of advertisement. .

図9(c)は、上記の図9(a)(b)の前提における、各時刻の混雑度計測結果、顔方向推定結果(検出された顔の数)および注目率を表している。例えば、時刻t1における、混雑度計測結果は混雑度計測カメラ1aにて把握される混雑度計測カメラ撮影範囲内に存在しているA−Jの10名、顔方向推定結果は混雑度計測カメラ1aにて把握される顔方向推定カメラ撮影範囲内に存在しかつ広告の方向を向いているJの1名である。なお、ここでは、検出された顔の数を広告の方向を向いている人数としているが、顔の角度と広告方向を向いているか否かの判定基準パラメータに基づいて、検出された顔の中から正面向きの顔だけを絞り込み、その数を広告の方向を向いている人数としてもよい。   FIG. 9C shows the congestion degree measurement result, face direction estimation result (number of detected faces), and attention rate at each time on the premise of FIGS. 9A and 9B. For example, at time t1, the congestion degree measurement result is 10 people AJ present in the shooting range of the congestion degree measurement camera grasped by the congestion degree measurement camera 1a, and the face direction estimation result is the congestion degree measurement camera 1a. Is one person of J who is in the face direction estimation camera shooting range grasped in, and faces the direction of advertisement. Here, the number of detected faces is the number of people facing the direction of the advertisement. However, the number of detected faces is determined based on the angle of the face and the criterion parameter for determining whether the direction is the advertisement direction. It is also possible to narrow down only the faces facing the front and the number of people facing the direction of the advertisement.

統計解析情報生成部23は、混雑度計測結果と検出された顔の数から、下記式(1)に従って、各時刻における注目率[%]を算出する。   The statistical analysis information generation unit 23 calculates the attention rate [%] at each time according to the following formula (1) from the congestion degree measurement result and the number of detected faces.

注目率[%]={(検出された顔の数/(顔方向推定カメラエリアカバー率/100))/(混雑度計測結果/(混雑度計測カメラエリアカバー率/100))}×100…(1)
但し、注目率は100%を上限とし、それを超えた場合は100%とする。
Attention rate [%] = {(number of detected faces / (face direction estimation camera area cover ratio / 100)) / (congestion degree measurement result / (congestion degree measurement camera area cover ratio / 100))} × 100. (1)
However, the attention rate is set at 100% as the upper limit, and when it exceeds the upper limit, it is set as 100%.

例えば、図9(a)によれば、混雑度計測カメラエリアカバー率81は100、顔方向推定カメラエリアカバー率82は50、図9(b)によれば、時刻t1における、検出された顔の数は1、混雑度計測結果は10であるから、統計解析情報生成部23は、上記式(1)に従って、時刻t1における注目率[%]を下記の如く算出する。   For example, according to FIG. 9A, the congestion degree measurement camera area cover rate 81 is 100, the face direction estimation camera area cover rate 82 is 50, and according to FIG. 9B, the detected face at time t1. 1 and the congestion degree measurement result is 10, the statistical analysis information generation unit 23 calculates the attention rate [%] at time t1 as follows according to the above equation (1).

注目率[%]={(1/(50/100))/(10/(100/100))}×100={(1/0.5)/(10/1)}×100=20[%] Attention rate [%] = {(1 / (50/100)) / (10 / (100/100))} × 100 = {(1 / 0.5) / (10/1)} × 100 = 20 [ %]

また、例えば、図9(b)によれば、時刻t2における、検出された顔の数は1、混雑度計測結果は1であるから、統計解析情報生成部23は、上記式(1)に従って、時刻t1における注目率[%]を下記の如く算出する。   Further, for example, according to FIG. 9B, since the number of detected faces is 1 and the congestion degree measurement result is 1 at time t2, the statistical analysis information generation unit 23 follows the above equation (1). The attention rate [%] at time t1 is calculated as follows.

注目率[%]={(1/(50/100))/(1/(100/100))}×100={(1/0.5)/(1/1)}×100=200[%]
計算結果が上限である100[%]を越えたため、注目率は100[%]となる。
Attention rate [%] = {(1 / (50/100)) / (1 / (100/100))} × 100 = {(1 / 0.5) / (1/1)} × 100 = 200 [ %]
Since the calculation result exceeds the upper limit of 100 [%], the attention rate is 100 [%].

以上のように、上記式(1)の注目率は、混雑度計測カメラエリアカバー率81と顔方向推定カメラエリアカバー率82とを用いて算出するが、これは、当該注目率が、混雑度計測エンジン14および顔方向推定エンジン18の双方を考慮した指標であることを意味している。換言すれば、上記注目率は、混雑度計測カメラエリアカバー率81と顔方向推定カメラエリアカバー率82とを用いているため、比較的広い範囲で人数カウント可能であるという混雑度計測エンジン14の利点と、比較的狭い範囲が対象だが、広告方向を向いている人数(広告を視聴した人数に該当)を取得可能という顔方向推定エンジン18の利点とを組み合わせた指標であることを表している。従って、顔方向推定カメラ撮影範囲を超える比較的広く範囲、例えば広告視聴可能エリア全体などを対象として、何人中、何人が広告を見ていたかの割合を推計することができるようになる。   As described above, the attention rate of the above formula (1) is calculated using the congestion degree measurement camera area cover rate 81 and the face direction estimation camera area cover rate 82. This is because the attention rate is the congestion degree. This means that the index takes into account both the measurement engine 14 and the face direction estimation engine 18. In other words, since the attention rate uses the congestion degree measurement camera area cover rate 81 and the face direction estimation camera area cover rate 82, the congestion degree measurement engine 14 can count people in a relatively wide range. This is an indicator that combines the advantage and the advantage of the face direction estimation engine 18 that the target is a relatively narrow range but can acquire the number of people facing the advertisement direction (corresponding to the number of people who watched the advertisement). . Therefore, it is possible to estimate the ratio of how many people were watching the advertisement over a relatively wide range exceeding the face direction estimation camera shooting range, for example, the entire advertisement viewable area.

統計解析情報生成処理の他の方法として、広告効果指標である延べ滞在人秒(GST)を算出し、統計解析情報24とする方法、若しくは、延べ滞在人秒を集計し、延べ滞在人秒を用いた統計解析情報24を生成する方法もある。以下、図10を用いて、延べ滞在人秒の算出方法を説明する。図10は、GSTについて説明するための説明図である。   As another method of statistical analysis information generation processing, a method of calculating the total visitor seconds (GST) that is an advertising effect index and calculating the statistical analysis information 24, or totaling the total visitor seconds, and calculating the total visitor seconds There is also a method for generating the statistical analysis information 24 used. Hereinafter, a method of calculating the total number of staying person seconds will be described with reference to FIG. FIG. 10 is an explanatory diagram for explaining GST.

図10(a)は、GSTの概念を説明した図である。図10(a)のグラフの横軸は時間[秒]、縦軸は混雑度[人数]である。黒丸は、一定又は任意の処理間隔で得られる混雑度計測結果43である。GSTは、図10(a)のグラフにおける斜線部分の面積によって表される量である。即ち、GSTは、当該処理時刻における混雑度計測結果43と次の処理時刻迄の時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって算出される値である。   FIG. 10A illustrates the concept of GST. The horizontal axis of the graph of FIG. 10A is time [second], and the vertical axis is the degree of congestion [number of people]. A black circle is the congestion degree measurement result 43 obtained at a constant or arbitrary processing interval. GST is an amount represented by the area of the hatched portion in the graph of FIG. That is, GST is a value calculated by multiplying the congestion degree measurement result 43 at the processing time and the time interval until the next processing time and integrating the calculated values within a unit time.

図10(b)は、1時間単位のGSTを算出する場合の説明図である。図10(b)において、11Aは、処理時刻(時:分:秒)である。図10(b)の例では、08:00:00から09:00:00迄、10分間隔で処理が実行されている。11Bは、混雑度計測結果43である。   FIG. 10B is an explanatory diagram in the case of calculating GST in units of one hour. In FIG. 10B, 11A is a processing time (hour: minute: second). In the example of FIG. 10B, the process is executed at intervals of 10 minutes from 08:00:00 to 09:00:00. 11B is the congestion degree measurement result 43.

11Cは、11Bに対し、エリアカバー率の修正を加えた値である。エリアカバー率の修正は、混雑度計測結果43を混雑度計測カメラエリアカバー率81で除算することによって行われる。図10(b)の例では、混雑度計測カメラカバー率81は100%であるため、11Bを1(=100%)で除算した値が11Cとなる。なお、仮に、混雑度計測カメラカバー率81が50%である場合は0.5で除算し、200%の場合は2で除算する。   11C is a value obtained by correcting the area coverage rate with respect to 11B. The area coverage rate is corrected by dividing the congestion level measurement result 43 by the congestion level measurement camera area coverage rate 81. In the example of FIG. 10B, since the congestion degree measurement camera cover rate 81 is 100%, a value obtained by dividing 11B by 1 (= 100%) is 11C. Note that if the congestion degree measurement camera cover ratio 81 is 50%, it is divided by 0.5, and if it is 200%, it is divided by 2.

11Dは、当該処理時刻から次の処理時刻迄の時間間隔である。図10(b)の例では、600秒となる。11Eは、11Cと11Dを掛け算した値である。11Fは、1時間単位で算出されたGST[人秒]である。例えば、08時台のGSTは、08:00:00における11Eから、09:00:00直前の処理時刻の11E(図10(b)の例では08:50:00における11E)を積算して求められる。具体的には、図10(b)の例では、08時台のGSTは、6000+12300+18000+5100+12000+18000=71400[人秒]となる。なお、GST算出の時間幅は、1時間に限られず、任意の時間、早朝、昼間、夕方、夜間、深夜、午前、午後、1日、1週間など種々の時間幅が考えられる。   11D is a time interval from the processing time to the next processing time. In the example of FIG. 10B, it is 600 seconds. 11E is a value obtained by multiplying 11C and 11D. 11F is GST [human seconds] calculated in units of one hour. For example, the GST in the 08 hour range is obtained by accumulating 11E at the processing time just before 09:00:00 from 11E at 08:00:00 (11E at 08:50:00 in the example of FIG. 10B). Desired. Specifically, in the example of FIG. 10B, the GST in the 08 o'clock range is 6000 + 12300 + 18000 + 5100 + 12000 + 18000 = 71400 [human seconds]. Note that the time width of GST calculation is not limited to one hour, and various time widths such as arbitrary time, early morning, daytime, evening, night, midnight, morning, afternoon, one day, one week, and the like are conceivable.

以上、図10に示す例によれば、混雑度計測カメラエリアカバー率81が100%ではない場合、即ち広告効果測定を実施したいエリアと実際に混雑度計測カメラ1aが撮影するエリアとが異なる場合でも、混雑度計測カメラエリアカバー率81を用いることにより、広告効果測定を実施したいエリア全体でのGSTを推計することが可能になる。   As described above, according to the example illustrated in FIG. 10, when the congestion degree measurement camera area coverage rate 81 is not 100%, that is, the area where the advertisement effect measurement is desired is different from the area actually captured by the congestion degree measurement camera 1a. However, by using the congestion degree measurement camera area coverage rate 81, it becomes possible to estimate the GST in the entire area where the advertisement effect measurement is desired.

また、GSTは、人数と時間の両方の概念を包含した指標であって、滞在時間で重みを付けて人数を計測した値である。従って、GSTを広告効果指標として用いることにより、個々人の滞在時間と全体的な人数といった複数の指標を、統合的な一つの指標として取り扱うことが可能となるため、効果的に、広告効果を定量化および可視化することができるようになる。   GST is an index including the concept of both the number of people and the time, and is a value obtained by measuring the number of people with weighting by stay time. Therefore, by using GST as an advertising effect index, it becomes possible to handle a plurality of indices such as the staying time of each person and the total number of people as one integrated index, so that the advertising effect can be quantified effectively. Can be visualized and visualized.

統計解析情報生成処理の他の方法として、広告効果指標である延べ視聴人秒(GVT)を算出し、統計解析情報24とする方法、若しくは、延べ視聴人秒を集計し、延べ視聴人秒を用いた統計解析情報24を生成する方法もある。以下、図11を用いて、延べ視聴人秒の算出方法を説明する。図11は、GVTについて説明するための説明図である。   As another method of statistical analysis information generation processing, the total viewer time (GVT) which is an advertising effect index is calculated and used as statistical analysis information 24, or the total viewer time is totaled, and the total viewer time is calculated. There is also a method for generating the statistical analysis information 24 used. Hereinafter, a method for calculating the total viewer seconds will be described with reference to FIG. FIG. 11 is an explanatory diagram for explaining the GVT.

図11(a)は、GVTの概念を説明した図である。図11(a)のグラフの横軸は時間[秒]、縦軸は顔方向推定結果の中の検出された顔の数である。黒丸は、一定又は任意の処理間隔で得られる顔方向推定結果63である。GVTは、図11(a)のグラフにおける斜線部分の面積によって表される量である。即ち、GVTは、当該処理時刻における検出された顔の数、即ち顔方向推定結果63と次の処理時刻迄の時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって算出される値である。なお、GVTは、検出された顔の数に代えて、正面顔の数を使って算出してもよいが、ここでは検出された顔の数によって算出する例を説明する。   FIG. 11A illustrates the concept of GVT. In the graph of FIG. 11A, the horizontal axis represents time [seconds], and the vertical axis represents the number of detected faces in the face direction estimation result. A black circle is a face direction estimation result 63 obtained at a constant or arbitrary processing interval. GVT is an amount represented by the area of the shaded portion in the graph of FIG. That is, the GVT is calculated by multiplying the number of detected faces at the processing time, that is, the face direction estimation result 63 and the time interval until the next processing time, and adding the calculated values within a unit time. Is the value to be Note that the GVT may be calculated using the number of front faces instead of the number of detected faces, but here, an example of calculation based on the number of detected faces will be described.

図11(b)は、1時間単位のGVTを算出する場合の説明図である。図11(b)において、12Aは処理時刻(時:分:秒)である。図11(b)の例では、08:00:00から09:00:00迄、10分間隔で処理が実行されている。12Bは、検出された顔の数である。   FIG. 11B is an explanatory diagram for calculating a GVT in units of one hour. In FIG.11 (b), 12A is processing time (hour: minute: second). In the example of FIG. 11B, the process is executed at intervals of 10 minutes from 08:00:00 to 09:00:00. 12B is the number of detected faces.

12Cは12Bに対し、エリアカバー率の修正を加えた値である。エリアカバー率の修正は、検出された顔の数を顔方向推定カメラエリアカバー率82で除算することによって行われる。図11(a)の例では、顔方向推定カメラカバー率82は50%であるため、11Bを0.5(=50%)で除算した値が12Cとなる。なお、仮に、顔方向推定カメラカバー率82が100%である場合は1で除算し、200%の場合は2で除算する。   12C is a value obtained by correcting the area coverage rate with respect to 12B. The area coverage is corrected by dividing the number of detected faces by the face direction estimation camera area coverage 82. In the example of FIG. 11A, since the face direction estimation camera cover rate 82 is 50%, a value obtained by dividing 11B by 0.5 (= 50%) is 12C. If the face direction estimated camera cover ratio 82 is 100%, it is divided by 1, and if it is 200%, it is divided by 2.

12Dは、当該処理時刻から次の処理時刻迄の時間間隔である。図11(b)の例では、600秒となる。12Eは、12Cと12Dを掛け算した値である。12Fは、1時間単位で算出されたGVT[人秒]である。例えば、08時台のGVTは、08:00:00における12Eから、09:00:00直前の処理時刻の12E(図11(b)の例では08:50:00における12E)を積算して求められる。具体的には、図11(b)の例では、08時台のGVTは、6000+6000+3600+2400+9600+18000=45600[人秒]となる。なお、GVT算出の時間幅は、1時間に限られず、任意の時間、早朝、昼間、夕方、夜間、深夜、午前、午後、1日、1週間など種々の時間幅が考えられる。   12D is a time interval from the processing time to the next processing time. In the example of FIG. 11B, it is 600 seconds. 12E is a value obtained by multiplying 12C and 12D. 12F is GVT [human seconds] calculated in units of one hour. For example, the GVT in the 08 hour range integrates 12E at 08:00:00 to 12E at the processing time immediately before 09:00:00 (12E at 08:50:00 in the example of FIG. 11B). Desired. Specifically, in the example of FIG. 11B, the GVT in the 08 hour range is 6000 + 6000 + 3600 + 2400 + 9600 + 18000 = 45600 [human seconds]. Note that the time width of GVT calculation is not limited to one hour, and various time widths such as an arbitrary time, early morning, daytime, evening, night, midnight, morning, afternoon, one day, one week, and the like are conceivable.

また、顔方向推定結果63には検出された顔の数に加え、その内訳である性別毎の顔の数、年代毎の顔の数、図6に示した性別と年代を組み合わせた区分け毎の顔の数が記載されているため、人物属性別にGVTを算出することも容易に可能である。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。   In addition to the number of detected faces, the face direction estimation result 63 includes the number of faces by sex, the number of faces by age, the number of faces by age, and the classification by combination of gender and age shown in FIG. Since the number of faces is described, it is possible to easily calculate GVT for each person attribute. Note that in order to output information by person attribute, the number of viewers by person attribute is required, which will be described later.

以上、図11に示す例によれば、顔方向推定カメラエリアカバー率82が100%ではない場合、即ち広告効果測定を実施したいエリアと実際に顔方向推定カメラ1bが撮影するエリアとが異なる場合でも、顔方向推定カメラエリアカバー率82を用いることにより、広告効果測定を実施したいエリア全体でのGVTを推計することが可能になる。   As described above, according to the example shown in FIG. 11, when the face direction estimation camera area coverage 82 is not 100%, that is, the area where the advertisement effect measurement is desired and the area actually captured by the face direction estimation camera 1b are different. However, by using the face direction estimation camera area coverage 82, it is possible to estimate the GVT for the entire area where the advertising effect measurement is desired.

また、GVTもGSTと同様、人数と時間の両方の概念を包含した指標であって、注視時間で重みを付けて人数を計測した値である。従って、GVTを広告効果指標として用いることにより、個々人の注視時間と、顔の数、即ち全体的な人数といった複数の指標を、統合的な一つの指標として取り扱うことが可能となるため、効果的に、広告効果を定量化および可視化することができるようになる。   Similarly to GST, GVT is an index that includes both the concept of the number of people and time, and is a value obtained by measuring the number of people with weighting by the gaze time. Therefore, by using GVT as an advertising effect index, it is possible to handle a plurality of indices such as the gaze time of each person and the number of faces, that is, the total number of people as an integrated index, which is effective. In addition, the advertising effect can be quantified and visualized.

統計解析情報生成処理の他の方法として、広告効果指標である人秒ベースの注目率を算出し、統計解析情報24とする方法、若しくは、人秒ベースの注目率を集計し、人秒ベースの注目率を用いた統計解析情報24を生成する方法もある。以下、人秒ベースの注目率の算出方法を説明する。   As another method of the statistical analysis information generation processing, the attention rate based on the human seconds that is the advertising effect index is calculated and used as the statistical analysis information 24, or the attention rate based on the human seconds is totaled, There is also a method for generating the statistical analysis information 24 using the attention rate. Hereinafter, a method of calculating the attention rate based on human seconds will be described.

統計解析情報24は、上記式(1)による注目率に代えて、下記式(2)従って、人秒ベースの注目率[%]を算出する。   The statistical analysis information 24 calculates the attention rate [%] based on human seconds according to the following equation (2) instead of the attention rate according to the above equation (1).

人秒ベースの注目率[%]=(GVT/GST)×100…(2)
但し、人秒ベースの注目率は100%を上限とし、それを超えた場合は100%とする。
Attention rate [%] = (GVT / GST) × 100 (2)
However, the attention rate based on human seconds is set to 100% as the upper limit, and when it exceeds the upper limit, the attention rate is set to 100%.

人秒ベースの注目率は、上記式(2)に示すように、GVTをGSTで除算して算出される。人秒ベースの注目率も、何人中、何人が広告を見ていたかを表す割合であって、GSTおよびGVTを算出した際の時間単位毎に算出される。   The human-second-based attention rate is calculated by dividing GVT by GST, as shown in the above equation (2). The person-second-based attention rate is also a ratio representing how many people are watching the advertisement, and is calculated for each time unit when GST and GVT are calculated.

例えば、図9の例において、時刻t1〜時刻t10迄の10秒間を時間単位とした場合、該10秒間のGSTは19[人秒]、GVTは10[人秒]であるため、上記式(2)に従って、人秒ベースの注目率=(10/19)×100=52.6%(小数点第2位四捨五入)となる。   For example, in the example of FIG. 9, when 10 seconds from time t1 to time t10 are set as a time unit, GST for the 10 seconds is 19 [personal seconds] and GVT is 10 [personal seconds]. According to 2), the attention rate based on human seconds = (10/19) × 100 = 52.6% (rounded to the second decimal place).

また、図10および図11の例において、人秒ベースの注目率=(08時台のGVT/08時台のGST)×100=(45600/71400)×100=63.9%(小数点第2位四捨五入)となる。   Further, in the example of FIGS. 10 and 11, the attention rate based on the human seconds = (GVT in the range of 08 o'clock / GST in the range of 08 o'clock) × 100 = (45600/71400) × 100 = 63.9% (the second decimal point) Rounded off).

以上、人秒ベースの注目率は、1時間単位又は1日単位などの時間単位における代表値を算出する際に、容易に算出することができる。また、人秒ベースの注目率は、使用目途にも依るが、より人間の直観に合致するため有用である。例えば、図9の例において、代表値に平均値を用いる方法を例とすると、時刻t1〜時刻t10迄の10秒間の注目率の代表値(平均値)は、注目率=(20+100+100+100+100+100+100+100+100+100)/10=92%と算出され、1名の長時間視聴者(具体的にはJ)の存在によって算出される注目率100%の事例数に重み付けされ、比較的高い値となる。換言すれば、1名の長時間視聴者による注目率に代表値が引っ張られ、比較的高い値となる。しかし、当該10秒間における人秒ベースの注目率は、上述の如く52.6%となるため、当該場合、人秒ベースの注目率の方が人間の直観により合致する。   As described above, the attention rate based on the human seconds can be easily calculated when calculating the representative value in the time unit such as one hour unit or one day unit. In addition, the attention rate based on human seconds is useful because it more closely matches human intuition, although it depends on the intended use. For example, in the example of FIG. 9, taking a method of using an average value as a representative value as an example, the representative value (average value) of the attention rate for 10 seconds from time t1 to time t10 is attention rate = (20 + 100 + 100 + 100 + 100 + 100 + 100 + 100 + 100 + 100) / 10. = 92%, which is weighted to the number of cases with an attention rate of 100% calculated based on the presence of one long-time viewer (specifically, J) and becomes a relatively high value. In other words, the representative value is pulled by the attention rate by one long-time viewer and becomes a relatively high value. However, the human-second-based attention rate in the 10 seconds is 52.6% as described above, and in this case, the human-second-based attention rate is more in line with human intuition.

以下、図12および図13を用いて、具体的な統計解析情報24について更に説明する。図12および図13は、統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。   Hereinafter, the specific statistical analysis information 24 will be further described with reference to FIGS. 12 and 13. 12 and 13 are explanatory diagrams for explaining an output example of statistical analysis information in the statistical analysis information generation processing.

図12(a)は、曜日別に、1時間単位でGSTおよびGVTを集計した集計結果の一例である。具体的には、図12(a)に示す例は、月曜日の時間推移の一例である。統計解析情報生成部23は、効果測定データ22から曜日別にデータ(広告効果指標)を抽出し、曜日別に、1時間単位でGSTおよびGVTを集計し、図12(a)に示すような集計結果を出力する。   FIG. 12A shows an example of a totaling result obtained by summing up GST and GVT on an hourly basis for each day of the week. Specifically, the example illustrated in FIG. 12A is an example of a time transition on Monday. The statistical analysis information generation unit 23 extracts data (advertising effect index) for each day of the week from the effect measurement data 22, totals GST and GVT for each day of the week, and displays a total result as shown in FIG. Is output.

なお、統計解析情報生成部23は、曜日別の集計に代えて、同様に、曜日を考慮しない全日(月曜〜日曜)、平日(月曜〜金曜)/週末(土曜、日曜)別に集計してもよい。また、統計解析情報生成部23は、1時間単位の集計に代えて、同様に、1日単位に集計してもよい。なお、図12(b)は、全日、平日、週末、曜日別に、1日単位でGSTおよびGVTを集計した集計結果である。また、上述の平日、週末以外にも、祝日別に集計する方法、週別に集計する方法、月別に集計する方法、季節別に集計する方法など種々の集計方法が考えられる。   Note that the statistical analysis information generation unit 23 may also calculate for all days (Monday to Sunday), weekdays (Monday to Friday) / weekends (Saturday, Sunday) without considering the day of the week instead of counting for each day of the week. Good. Further, the statistical analysis information generating unit 23 may similarly aggregate in units of one day instead of aggregation in units of one hour. Note that FIG. 12B shows a totaling result obtained by summing up GST and GVT in units of one day for all days, weekdays, weekends, and days of the week. In addition to the above-mentioned weekdays and weekends, various aggregation methods such as a method of counting by holidays, a method of counting by week, a method of counting by month, and a method of counting by season can be considered.

また、統計解析情報生成部23は、GSTおよびGVTに代えて、上記式(1)によって示される注目率について集計してもよい。具体的には、例えば、統計解析情報生成部23は、上記式(1)によって示される注目率について集計時間単位(例えば、1時間又は1日)の代表値(例えば平均値)を算出し、算出した代表値を集計値としてもよい。   Further, the statistical analysis information generation unit 23 may total the attention rate indicated by the above formula (1) instead of the GST and the GVT. Specifically, for example, the statistical analysis information generation unit 23 calculates a representative value (for example, an average value) in a total time unit (for example, one hour or one day) for the attention rate indicated by the above formula (1), The calculated representative value may be used as the total value.

また、統計解析情報生成部23は、更に、人物属性別に集計してもよい。例えば、図12(a)に示す集計を性別毎に行って、性別、曜日別に、1時間単位のGSTおよびGVTを集計してもよい。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。   Further, the statistical analysis information generation unit 23 may further count by person attribute. For example, the aggregation shown in FIG. 12A may be performed for each gender, and GST and GVT in units of one hour may be aggregated for each sex and day of the week. Note that in order to output information by person attribute, the number of viewers by person attribute is required, which will be described later.

図12(b)に示すような広告効果指標を統計解析情報24として出力することによって、当該広告の当該設置場所における効果が得られるため、当該広告または当該設置場所の今後のマーケティング、販売促進、広告コンテンツのプランニング等に利用することができる。   By outputting the advertisement effect index as shown in FIG. 12 (b) as the statistical analysis information 24, since the effect at the installation location of the advertisement is obtained, future marketing, sales promotion of the advertisement or the installation location, It can be used for planning of advertising content.

また、統計解析情報生成部23は、GSTおよびGVTに代えて、人秒ベースの注目率について集計してもよい。また、統計解析情報生成部23は、人物属性別のGVTである人物属性別GVTについて集計してもよい。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。   Further, the statistical analysis information generation unit 23 may aggregate the attention rate based on the human seconds instead of the GST and the GVT. In addition, the statistical analysis information generation unit 23 may total the GVT by person attribute which is the GVT by person attribute. Note that in order to output information by person attribute, the number of viewers by person attribute is required, which will be described later.

図13(a)は、曜日別に、1時間単位で性別比率を集計した集計結果の一例である。具体的には、図13(a)に示す例は、月曜日の時間推移の一例である。統計解析情報生成部23は、効果測定データ22から曜日別にデータ(場所属性情報)を抽出し、曜日別に、1時間単位で性別比率を集計し、図13(a)に示すような集計結果を出力する。   FIG. 13A is an example of a totaling result in which the gender ratios are totaled for each day of the week on an hourly basis. Specifically, the example illustrated in FIG. 13A is an example of a time transition on Monday. The statistical analysis information generation unit 23 extracts data (location attribute information) for each day of the week from the effect measurement data 22, totals the gender ratio for each day of the week, and obtains the total result as shown in FIG. Output.

なお、統計解析情報生成部23は、曜日別の集計に代えて、同様に、全日、平日/週末別に集計してもよい。また、統計解析情報生成部23は、1時間単位の集計に代えて、同様に、1日単位に集計してもよい。なお、図13(b)は、全日、平日、週末、曜日別に、1日単位で性別比率を集計した集計結果である。また、統計解析情報生成部23は、性別比率に代えて、年代比率、図6に示した性別と年代とを組み合わせた属性区分比率についても集計してよい。   Note that the statistical analysis information generation unit 23 may perform totaling for all days, weekdays / weekends in the same manner, instead of counting by day of the week. Further, the statistical analysis information generating unit 23 may similarly aggregate in units of one day instead of aggregation in units of one hour. FIG. 13 (b) shows the totaled results of gender ratios totaled on a daily basis for all days, weekdays, weekends, and days of the week. In addition, the statistical analysis information generation unit 23 may tabulate the age ratio, and the attribute classification ratio combining the sex and the age shown in FIG. 6 instead of the gender ratio.

図13(b)に示すような場所属性情報を統計解析情報24として出力することによって、当該場所に、どのような属性の人がどのような時間に多いのか、または少ないのか、といった当該場所固有の特性が得られるため、マーケティング、販売促進、広告コンテンツのプランニング等に利用することができる。   By outputting the place attribute information as shown in FIG. 13B as the statistical analysis information 24, the place-specific information such as what kind of attribute the person has at most at what time or at what time in the place. Therefore, it can be used for marketing, sales promotion, advertising content planning and the like.

以下、図14から図18を用いて、顔方向を推定方法および人物属性別の視聴者数の算出方法について詳細に説明する。図14は、顔方向推定エンジン18の構成の一例を示す機能ブロック図である。図15は、認識用顔領域再検出部124の処理を説明するための説明図である。   Hereinafter, a face direction estimation method and a method for calculating the number of viewers by person attribute will be described in detail with reference to FIGS. 14 to 18. FIG. 14 is a functional block diagram illustrating an example of the configuration of the face direction estimation engine 18. FIG. 15 is an explanatory diagram for explaining processing of the recognition face area redetection unit 124.

顔方向推定エンジン18は、図14に示すように、学習処理部110および認識処理部120を備える。学習処理部110は、学習用データ取得部111、学習用顔領域検出部112、顔方向別属性識別器生成部113および顔方向別属性識別器記憶部114を備える。認識処理部120は、計測用画像データ取得部121、認識用顔領域検出部122、顔方向推定部123、認識用顔領域再検出部124、属性識別部125および結果出力部126を備える。   As shown in FIG. 14, the face direction estimation engine 18 includes a learning processing unit 110 and a recognition processing unit 120. The learning processing unit 110 includes a learning data acquisition unit 111, a learning face area detection unit 112, a face direction attribute discriminator generation unit 113, and a face direction attribute discriminator storage unit 114. The recognition processing unit 120 includes a measurement image data acquisition unit 121, a recognition face region detection unit 122, a face direction estimation unit 123, a recognition face region redetection unit 124, an attribute identification unit 125, and a result output unit 126.

学習用データ取得部111は、学習用データとして、顔方向推定カメラ1bによって種々の方向から撮像された顔画像データ、上記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、被写体の属性データを取得する。学習用データ取得部111は、顔画像データを学習用顔領域検出部112に出力する。   The learning data acquisition unit 111 uses, as learning data, face image data captured from various directions by the face direction estimation camera 1b, a learning face direction parameter indicating the face direction of the subject of the face image data, and subject attributes. Get the data. The learning data acquisition unit 111 outputs the face image data to the learning face area detection unit 112.

また、学習用データ取得部111は、学習用顔方向パラメータ(例えば、yaw角の値、pitch角の値など)を学習用データとして取得する。学習用データ取得部111は、学習用顔方向パラメータを、何れの顔画像データに係る学習用顔方向パラメータであるかわかる態様(顔画像データと学習用顔方向パラメータとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、学習用顔方向パラメータを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、学習用顔方向パラメータは、各顔画像データの撮像時に設定した顔方向を手作業で入力したものである。   The learning data acquisition unit 111 acquires learning face direction parameters (for example, a yaw angle value, a pitch angle value, etc.) as learning data. A mode in which the learning data acquisition unit 111 knows which learning face direction parameter is the learning face direction parameter related to which face image data (a mode in which the correspondence between the face image data and the learning face direction parameter is known) Is output to the attribute classifier generator 113 by face direction. For example, the learning data acquisition unit 111 outputs the learning face direction parameter to the face direction attribute classifier generation unit 113 in association with identification information for identifying the face image data. Note that the learning face direction parameter is obtained by manually inputting the face direction set when each face image data is captured.

また、学習用データ取得部111は、各顔画像データの被写体の属性データを学習用データとして取得する。学習用データ取得部111は、属性データを、何れの顔画像データに係る属性データであるかわかる態様(顔画像データと属性データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、属性データを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。   Further, the learning data acquisition unit 111 acquires subject attribute data of each face image data as learning data. The learning data acquisition unit 111 generates an attribute classifier by face direction according to an aspect in which attribute data is attribute data related to which face image data (an aspect in which the correspondence between the face image data and the attribute data is known). Output to the unit 113. For example, the learning data acquisition unit 111 outputs the attribute data to the face direction-specific attribute discriminator generation unit 113 in association with the identification information for identifying the face image data.

また、学習処理部110において、主観年齢層を識別する属性識別器を生成する場合、学習用データ取得部111は、主観年齢に係る集計データ(顔画像データを多数の人物に予め提示して得られた当該顔画像データの被写体の主観年齢の割合を集計した集計データ)を学習用データとして取得する。学習用データ取得部111は、集計データを、何れの顔画像データに係る集計データであるかわかる態様(顔画像データと集計データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、集計データを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、主観年齢層を識別する識別器を生成する場合の具体例などについては後述する   Further, when the learning processing unit 110 generates an attribute discriminator for identifying the subjective age group, the learning data acquisition unit 111 obtains the aggregated data related to the subjective age (face image data is presented to a large number of people in advance. (Aggregated data obtained by totaling the ratios of the subjective ages of the subjects in the face image data) is acquired as learning data. The learning data acquisition unit 111 generates a face direction attribute classifier according to an aspect (an aspect in which the correspondence between the face image data and the aggregated data is known) in which the aggregated data is the aggregated data related to which face image data. Output to the unit 113. For example, the learning data acquisition unit 111 outputs the aggregated data to the face direction-specific attribute discriminator generation unit 113 in association with identification information for identifying face image data. A specific example of generating a discriminator for identifying a subjective age group will be described later.

学習用顔領域検出部112は、学習用データ取得部111から顔画像データを取得し、顔画像データから顔領域を検出する。例えば、学習用顔領域検出部112は、確率的増分符号相関などの統計的手法(例えば、参考文献5参照)を利用し、顔領域を高速に検出してもよい。   The learning face area detection unit 112 acquires face image data from the learning data acquisition unit 111 and detects a face area from the face image data. For example, the learning face area detection unit 112 may detect a face area at high speed by using a statistical method such as stochastic incremental code correlation (for example, see Reference 5).

(参考文献5)
「個体差のある対象の画像照合に適した確率的増分符号相関」三田雄志、金子敏充、堀修 電子情報通信学会論文誌D−II,Vol.J88−D−II,No.8,pp.1614−1623,2005.
(Reference 5)
“Probabilistic incremental code correlation suitable for image matching of objects with individual differences” Yuji Mita, Toshimitsu Kaneko, Osamu Hori, IEICE Transactions D-II, Vol. J88-D-II, no. 8, pp. 1614-1623, 2005.

顔領域を検出した学習用顔領域検出部112は、顔画像データから顔領域を切り出した画像(以下、「顔切出画像データ」という)を、何れの顔画像データに係る顔切出画像データであるかわかる態様(顔画像データと顔切出画像データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用顔領域検出部112は、顔切出画像データを、切り出し元の顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、学習処理部110の学習用顔領域検出部112は、認識処理部120の認識用顔領域検出部122に比べ、処理時間における制約は厳しくない。認識用顔領域検出部122は認識時に顔領域を検出するが、学習用顔領域検出部112は属性識別器の学習時に顔領域を検出するからである。   The learning face area detecting unit 112 that has detected the face area uses an image obtained by cutting out the face area from the face image data (hereinafter referred to as “face cut-out image data”) as face cut-out image data related to any face image data. Is output to the face direction-specific attribute discriminator generating unit 113 in a manner that allows the user to recognize whether the image is a face image (a manner in which the correspondence between face image data and face cut-out image data is known). For example, the learning face area detection unit 112 outputs the face cut-out image data to the face direction-specific attribute discriminator generation unit 113 in association with the identification information for identifying the cut-out source face image data. Note that the learning face area detection unit 112 of the learning processing unit 110 is less restrictive in processing time than the recognition face area detection unit 122 of the recognition processing unit 120. This is because the recognition face area detection unit 122 detects the face area during recognition, but the learning face area detection unit 112 detects the face area during learning of the attribute classifier.

顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(学習用顔方向パラメータ、属性データ)を取得する。また、顔方向別属性識別器生成部113は、学習用顔領域検出部112から顔切出画像データを取得する。なお、学習用顔方向パラメータ、属性データおよび顔切出画像データは、何れも、それぞれが何れの顔画像データに係る情報であるか識別可能である。換言すれば、学習用顔方向パラメータ、属性データおよび顔切出画像データのぞれぞれは互いに対応付けられている。   The face direction attribute classifier generator 113 acquires learning data (learning face direction parameters, attribute data) from the learning data acquisition unit 111. In addition, the face direction attribute classifier generator 113 acquires face cut-out image data from the learning face area detector 112. Note that the learning face direction parameter, the attribute data, and the face cut-out image data can all be identified as information relating to which face image data. In other words, the learning face direction parameter, the attribute data, and the face cut-out image data are associated with each other.

また、学習処理部110において、主観年齢層を識別する属性識別器を生成する場合、顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(集計データ)を取得する。なお、集計データは、何れも、それぞれが何れの顔画像データに係る情報であるか識別可能である。換言すれば、学習用顔方向パラメータ、属性データ、集計データおよび顔切出画像データのぞれぞれは互いに対応付けられている。   When the learning processing unit 110 generates an attribute discriminator for identifying a subjective age group, the face-specific attribute discriminator generating unit 113 acquires learning data (aggregated data) from the learning data acquisition unit 111. . It should be noted that each of the aggregate data can identify which face image data is associated with each. In other words, the learning face direction parameter, the attribute data, the total data, and the face cut-out image data are associated with each other.

学習用データおよび顔切出画像データを取得した顔方向別属性識別器生成部113は、顔方向別に、属性識別器を生成する。例えば、顔方向別属性識別器生成部113は、男性か女性かを識別できる性別識別器などの属性識別器を顔方向別に生成する。   The face direction attribute discriminator generating unit 113 that has acquired the learning data and the face cut-out image data generates an attribute discriminator for each face direction. For example, the face direction attribute discriminator generating unit 113 generates an attribute discriminator such as a gender discriminator that can discriminate between male and female by face direction.

具体的には、顔方向別属性識別器生成部113は、学習用顔領域検出部112によって出力された顔切出画像データであって学習用顔方向パラメータが同一である複数の顔切出画像データと、当該複数の顔切出画像データそれぞれの属性データとに基づいて、被写体の顔方向別に、被写体の属性を識別する属性識別器を生成する。より詳細には、顔方向別属性識別器生成部113は、学習用顔方向パラメータの値が一致する顔切出画像データ(顔方向の一致する顔切出画像データ)を1つのグループとし、各グループ内の属性(各グループ内の顔切出画像データに対応する属性データに基づく属性)を教師信号として属性識別器に学習させる。顔方向別属性識別器生成部113は、全ての顔方向に対して当該処理を行うことによって、顔方向別の属性識別器を生成する。なお、顔方向別属性識別器生成部113は、学習用顔方向パラメータに基づいて、各属性識別器に顔方向に係る情報(例えば、yaw角およびpitch角の組合せ)を示すタグを付加する。   Specifically, the face direction attribute classifier generator 113 is a plurality of face cut images that are face cut image data output by the learning face area detector 112 and have the same learning face direction parameter. Based on the data and the attribute data of each of the plurality of face cut-out image data, an attribute discriminator for identifying the attribute of the subject is generated for each face direction of the subject. More specifically, the face direction attribute classifier generator 113 sets the face cut image data (face cut image data with matching face direction) having the same value of the learning face direction parameter as one group, The attribute discriminator is made to learn the attribute in the group (the attribute based on the attribute data corresponding to the face cut image data in each group) as a teacher signal. The face direction attribute discriminator generating unit 113 generates the face direction attribute discriminator by performing the processing for all face directions. The face direction attribute classifier generator 113 adds a tag indicating information on the face direction (for example, a combination of a yaw angle and a pitch angle) to each attribute classifier based on the learning face direction parameter.

顔方向別属性識別器生成部113は、生成した全ての属性識別器を顔方向別属性識別器記憶部114に記憶する。なお、顔方向別属性識別器生成部113は、属性識別器の生成結果を管理し、全ての顔方向の属性識別器を生成したか否かを判断する。なお、顔方向別属性識別器生成部113が生成する属性識別器の種類は、2クラスを判別できるものであれば何でもよい。例えば、サポートベクトルマシンやフィードフォワード型ニューラルネットワークなどが代表的なところである。   The face direction attribute classifier generation unit 113 stores all the generated attribute classifiers in the face direction attribute classifier storage unit 114. The face direction attribute classifier generator 113 manages the generation results of the attribute classifiers and determines whether or not all face direction attribute classifiers have been generated. Note that the type of attribute classifier generated by the face direction attribute classifier generator 113 may be anything as long as it can discriminate between two classes. For example, support vector machines and feed-forward neural networks are typical.

また、主観年齢層を識別する識別器を生成する場合、顔方向別属性識別器生成部113は、所定の閾値に基づいて、集計データによって示される各主観年齢層(各クラス)の正解/不正解を判定し、複数の主観年齢層を正解と判定した場合に、正解と判定した主観年齢層における評価の頻度(正解と判定した各クラスに属すると評価した他者の割合)に応じて重み付けした内分値、又は、上記評価の割合を等価とした内分値を教師信号として属性識別器に渡して、属性識別器を生成する。   In addition, when generating a classifier that identifies a subjective age group, the face direction attribute classifier generating unit 113 corrects / incorrects each subjective age group (each class) indicated by the aggregate data based on a predetermined threshold. When the correct answer is determined and multiple subjective age groups are determined to be correct, weighting is performed according to the frequency of evaluation in the subjective age group determined to be correct (percentage of others evaluated as belonging to each class determined to be correct) Then, the internal division value or the internal division value equivalent to the evaluation ratio is passed as a teacher signal to the attribute discriminator to generate an attribute discriminator.

顔方向別属性識別器記憶部114は、メモリまたはHDDであって、顔方向別属性識別器生成部113によって生成された全ての属性識別器を記録する。顔方向別属性識別器記憶部114に記憶された属性識別器は、属性識別部125からの要求に応じて属性識別部125に出力される。   The face direction attribute classifier storage unit 114 is a memory or HDD, and records all the attribute classifiers generated by the face direction attribute classifier generation unit 113. The attribute classifier stored in the face direction-specific attribute classifier storage unit 114 is output to the attribute classifier 125 in response to a request from the attribute classifier 125.

計測用画像データ取得部121は、顔方向推定カメラ1bから出力された撮像画像を計測用画像データとして取得する。なお、計測用画像データ取得部121が取得する計測用画像データは、視聴人数の計測用、又は、人物属性別の視聴人数の計測用の画像データである。計測用画像データ取得部121は、計測用画像データを認識用顔領域検出部122および認識用顔領域再検出部124に出力する。   The measurement image data acquisition unit 121 acquires the captured image output from the face direction estimation camera 1b as measurement image data. Note that the measurement image data acquired by the measurement image data acquisition unit 121 is image data for measuring the number of viewers or for measuring the number of viewers by person attribute. The measurement image data acquisition unit 121 outputs the measurement image data to the recognition face region detection unit 122 and the recognition face region redetection unit 124.

認識用顔領域検出部122は、計測用画像データ取得部121から計測用画像データを取得し、計測用画像データから顔領域を検出する。例えば、認識用顔領域検出部122は、学習用顔領域検出部112と同様の手法を利用し、計測用画像データから顔領域を検出する。顔領域を検出した認識用顔領域検出部122は、計測用画像データから顔領域を切り出した顔切出画像データを顔方向推定部123に出力する。なお、認識処理部120の認識用顔領域検出部122は、学習処理部110の学習用顔領域検出部112に比べ、処理時間における制約は厳しい。学習用顔領域検出部112は属性識別器の学習時に顔領域を検出するが、認識用顔領域検出部122は認識時に顔領域を検出するからである。従って、確率的増分符号相関などの統計的手法を利用し、顔領域を高速に検出することが好ましい。   The recognition face area detection unit 122 acquires measurement image data from the measurement image data acquisition unit 121 and detects a face area from the measurement image data. For example, the recognition face area detection unit 122 detects a face area from the measurement image data using the same method as the learning face area detection unit 112. The recognition face area detection unit 122 that has detected the face area outputs face cut image data obtained by cutting out the face area from the measurement image data to the face direction estimation unit 123. Note that the recognition face area detection unit 122 of the recognition processing unit 120 is more restrictive in processing time than the learning face area detection unit 112 of the learning processing unit 110. This is because the learning face area detection unit 112 detects the face area during learning of the attribute classifier, but the recognition face area detection unit 122 detects the face area during recognition. Therefore, it is preferable to detect a face area at high speed using a statistical method such as stochastic incremental code correlation.

顔方向推定部123は、認識用顔領域検出部122から顔切出画像データを取得する。顔切出画像データを取得した顔方向推定部123は、認識用顔領域検出部122によって出力された顔切出画像データに基づいて、計測用画像の被写体の顔方向を推定し、被写体の顔方向を示す属性識別用顔方向パラメータを出力する。属性識別用顔方向パラメータは、例えば、yaw角、pitch角、roll角およびスケール値に係るものである。スケール値とは、顔領域として検出される方形枠に対する顔の占める大きさ(例えば、ドット数)を定量的に算出したものである(例えば、ある基準値に対する相対値として表現してもよい)。   The face direction estimation unit 123 acquires face cut-out image data from the recognition face area detection unit 122. The face direction estimation unit 123 that has acquired the face cut-out image data estimates the face direction of the subject of the measurement image based on the face cut-out image data output by the recognition face area detection unit 122, and the face of the subject An attribute identification face direction parameter indicating the direction is output. The attribute identification face direction parameter relates to, for example, a yaw angle, a pitch angle, a roll angle, and a scale value. The scale value is a quantitative calculation of the size (for example, the number of dots) occupied by the face with respect to the square frame detected as the face area (for example, it may be expressed as a relative value with respect to a certain reference value). .

より詳細には、顔方向推定部123は、顔切出画像データから顔領域の明度パターンを検出し、検出した顔領域の明度パターンに基づいて、属性識別用顔方向パラメータを推定する。例えば、顔方向推定部123は、主成分分析とサポートベクトル回帰を組み合わせたパラメータ推定法(例えば、参考文献6参照)を利用し、高精度に、属性識別用顔方向パラメータを推定する。参考文献6参照の手法を利用することによって、学習していない顔方向を含む連続的な顔方向推定が可能となる。   More specifically, the face direction estimation unit 123 detects the brightness pattern of the face area from the face cut-out image data, and estimates the attribute identification face direction parameter based on the detected brightness pattern of the face area. For example, the face direction estimation unit 123 estimates a face direction parameter for attribute identification with high accuracy by using a parameter estimation method (for example, see Reference 6) that combines principal component analysis and support vector regression. By using the method described in Reference 6, continuous face direction estimation including an unlearned face direction can be performed.

(参考文献6)
「サポートベクトル回帰を用いた三次元物体の姿勢推定法」安藤慎吾,草地良規,鈴木章, 荒川賢一 電子情報通信学会論文誌D−II,Vol.J89−D No.8,pp.1840−1847,2006.
(Reference 6)
“Pose Estimation Method for 3D Objects Using Support Vector Regression” Shingo Ando, Yoshinori Kusachi, Akira Suzuki, Kenichi Arakawa IEICE Transactions D-II, Vol. J89-D No. 8, pp. 1840-1847, 2006.

顔方向を推定した顔方向推定部123は、roll角およびスケール値に係る属性識別用顔方向パラメータを認識用顔領域再検出部124に出力し、yaw角およびpitch角に係る属性識別用顔方向パラメータを属性識別部125に出力する。   The face direction estimating unit 123 that has estimated the face direction outputs the attribute identifying face direction parameter related to the roll angle and the scale value to the recognizing face region re-detecting unit 124, and the attribute identifying face direction related to the yaw angle and the pitch angle. The parameter is output to the attribute identification unit 125.

また、顔方向推定部123は、顔切出画像データ毎に推定した顔方向と、予め設定した広告方向とを比較し、顔方向が広告方向である顔切出画像データの数、即ち、視聴人数を計数する。視聴人数を計数した顔方向推定部123は、計数した視聴人数を結果出力部126に出力する。   In addition, the face direction estimation unit 123 compares the face direction estimated for each face cut-out image data with a preset advertisement direction, and the number of face cut-out image data whose face direction is the advertisement direction, that is, viewing Count the number of people. The face direction estimation unit 123 that has counted the number of viewers outputs the counted number of viewers to the result output unit 126.

また、顔方向推定部123は、上記比較の結果、顔方向が広告方向であるか否かを示す情報を、yaw角およびpitch角に係る属性識別用顔方向パラメータに対応付けて、属性識別部125に出力してもよい。つまり、顔方向推定部123は、視聴者に係る属性識別用顔方向パラメータであるか、非視聴者に係る属性識別用顔方向パラメータであるかがわかる態様により、属性識別用顔方向パラメータを属性識別部125に出力してもよい。   In addition, the face direction estimation unit 123 associates information indicating whether or not the face direction is the advertisement direction as a result of the comparison with the face direction parameter for attribute identification related to the yaw angle and the pitch angle. You may output to 125. That is, the face direction estimation unit 123 sets the attribute identification face direction parameter as an attribute according to an aspect in which it is known whether the attribute identification face direction parameter is related to the viewer or the attribute identification face direction parameter related to the non-viewer. You may output to the identification part 125. FIG.

認識用顔領域再検出部124は、計測用画像データ取得部121から計測用画像データを取得する。また、認識用顔領域再検出部124は、顔方向推定部123からroll角およびスケール値に係る属性識別用顔方向パラメータを取得する。計測用画像データ、roll角およびスケール値に係る属性識別用顔方向パラメータを取得した認識用顔領域再検出部124は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(roll角およびスケール値)に基づいて、計測用画像データから、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する。具体的には、認識用顔領域再検出部124は、図15に示すように、roll角が0°かつスケール値が1になるように正規化されるように、計測用画像データから顔領域を切り出した顔切出画像データを出力する。つまり、認識用顔領域再検出部124は、回転や大きさの微妙なぶれを補正するために、再度、計測用画像データから顔領域を切り出した顔切出画像データを出力している。認識用顔領域再検出部124は、顔切出画像データを属性識別部125に出力する。   The recognition face area redetection unit 124 acquires measurement image data from the measurement image data acquisition unit 121. Further, the recognizing face area re-detecting unit 124 acquires the attribute identifying face direction parameter related to the roll angle and the scale value from the face direction estimating unit 123. The recognizing face area re-detecting unit 124 that has acquired the attribute identifying face direction parameter related to the measurement image data, the roll angle, and the scale value outputs the attribute identifying face direction parameter (the roll angle and the roll angle) output by the face direction estimating unit 123. Based on the scale value), face face image data obtained by detecting and extracting the face area of the subject again from the measurement image data is output. Specifically, as shown in FIG. 15, the recognizing face area re-detecting unit 124 detects the face area from the measurement image data so as to be normalized so that the roll angle is 0 ° and the scale value is 1. The face cut-out image data obtained by cutting out is output. That is, the recognizing face area re-detecting unit 124 outputs face cut-out image data obtained by cutting out the face area from the measurement image data again in order to correct a slight fluctuation in rotation and size. The recognition face area redetection unit 124 outputs the face cut image data to the attribute identification unit 125.

属性識別部125は、顔方向推定部123からyaw角およびpitch角に係る属性識別用顔方向パラメータを取得する。また、属性識別部125は、認識用顔領域再検出部124から顔切出画像データを取得する。yaw角およびpitch角に係る属性識別用顔方向パラメータ、顔切出画像データを取得した属性識別部125は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(yaw角およびpitch角)に基づいて、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のなかから1または2以上の属性識別器を選択する。   The attribute identifying unit 125 obtains attribute identifying face direction parameters related to the yaw angle and the pitch angle from the face direction estimating unit 123. Further, the attribute identification unit 125 acquires face cut-out image data from the recognition face area redetection unit 124. The attribute identification unit 125 that has acquired the attribute identification face direction parameter and the face cut image data related to the yaw angle and the pitch angle outputs the attribute identification face direction parameter (yaw angle and pitch angle) output by the face direction estimation unit 123. Based on the above, one or more attribute classifiers are selected from a plurality of attribute classifiers stored in the face direction attribute classifier storage unit 114.

属性識別部125による属性識別器の選択基準は種々の方法が考えられるが、例えば、属性識別部125は、基準基準1または選択基準2の何れかに従って属性識別器を選択する。
(選択基準1)
顔方向別属性識別器記憶部114に記憶されている複数の属性識別器がyaw角とpitch角に関する2次元空間上に格子状に並べられていると想定し、ユークリッド距離による最近傍の属性識別器を1つ選択する。換言すれば、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のそれぞれを、顔方向推定部123から出力されたyaw角およびpitch角から構成される2次元空間に配置したときの、ユークリッド距離に基づいて最近傍の属性識別器を1つ選択する。
(選択基準2)
顔方向別属性識別器記憶部114に記憶されている複数の属性識別器がyaw角とpitch角に関する2次元空間上に格子状に並べられていると想定し、ユークリッド距離による4近傍の識別器を選択する。換言すれば、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のそれぞれを、顔方向推定部123から出力されたyaw角およびpitch角から構成される2次元空間に配置したときの、ユークリッド距離に基づいて近傍の属性識別器を2つ以上選択する。
There are various methods for selecting the attribute discriminator by the attribute discriminating unit 125. For example, the attribute discriminating unit 125 selects the attribute discriminator according to either the criterion 1 or the selection criterion 2.
(Selection criteria 1)
Assuming that a plurality of attribute classifiers stored in the face direction attribute classifier storage unit 114 are arranged in a grid on a two-dimensional space with respect to the yaw angle and the pitch angle, the nearest attribute identification based on the Euclidean distance Select one vessel. In other words, each of the plurality of attribute classifiers stored in the face direction attribute classifier storage unit 114 is arranged in a two-dimensional space composed of the yaw angle and the pitch angle output from the face direction estimation unit 123. Then, one nearest attribute classifier is selected based on the Euclidean distance.
(Selection criteria 2)
Assume that a plurality of attribute classifiers stored in the face direction attribute classifier storage unit 114 are arranged in a grid on a two-dimensional space with respect to the yaw angle and the pitch angle, and classifiers of four neighbors based on the Euclidean distance Select. In other words, each of the plurality of attribute classifiers stored in the face direction attribute classifier storage unit 114 is arranged in a two-dimensional space composed of the yaw angle and the pitch angle output from the face direction estimation unit 123. Two or more nearby attribute classifiers are selected based on the Euclidean distance.

基準基準1に従って1つの属性識別器を選択した場合、属性識別部125は、当該選択した1つの属性識別器に、認識用顔領域再検出部124から取得した顔切出画像データを入力し、識別結果を得る。そして、属性識別部125は、当該識別結果を結果出力部126に出力する。   When one attribute discriminator is selected according to the criterion 1, the attribute discriminating unit 125 inputs the face cut-out image data acquired from the recognition face area redetection unit 124 to the selected one attribute discriminator. Get the identification result. Then, the attribute identification unit 125 outputs the identification result to the result output unit 126.

また、属性識別部125は、顔方向が広告方向であるか否かを示す情報を顔方向推定部123から取得した場合には、識別結果別の視聴者数、即ち、人物属性別の視聴人数を計数する。人物属性別の視聴人数を計数した属性識別部125は、計数した人物属性別の視聴人数を結果出力部126に出力する。   Further, when the attribute identification unit 125 acquires information indicating whether or not the face direction is the advertisement direction from the face direction estimation unit 123, the attribute identification unit 125 determines the number of viewers by identification result, that is, the number of viewers by person attribute. Count. The attribute identification unit 125 that counts the number of viewers by person attribute outputs the counted number of viewers by person attribute to the result output unit 126.

基準基準2に従って4つの属性識別器を選択した場合、属性識別部125は、当該選択した4つの属性識別器のそれぞれに、認識用顔領域再検出部124から取得した顔切出画像データを入力し、それぞれから識別結果を得る。そして、属性識別部125は、それぞれから取得した識別結果から最終的な識別結果を算出し(例えば、距離による重み付き平均を用いて計測用画像の被写体に係る最終的な識別結果を算出する)、最終的な識別結果を結果出力部126に出力する。
例えば、サポートベクトルマシン等では最後にsign関数を乗じて1か−1の何れかを出力するが、ここでは、それぞれから取得した識別結果について、sign関数を乗じる前の数値を(一時的な)識別結果とし、デジタル画像の拡大などで用いられるバイリニア補間と同様の手法を用いて、それぞれの識別結果を重み付き平均する。次いで、sign関数をかけ、(最終的な)識別結果として結果出力部126に出力する。なお、バイキュービック補間のように5近傍以上の重み付き平均を利用した手法、スプライン補間などの、より高度な手法を利用可能であり、バリエーションは多彩である。
When four attribute discriminators are selected according to the criterion 2, the attribute discriminating unit 125 inputs the face cut-out image data acquired from the recognition face area redetection unit 124 to each of the selected four attribute discriminators. Then, an identification result is obtained from each. Then, the attribute identification unit 125 calculates a final identification result from the identification results acquired from each of them (for example, calculates a final identification result related to the subject of the measurement image using a weighted average based on distance). The final identification result is output to the result output unit 126.
For example, a support vector machine or the like multiplies the sign function at the end to output either 1 or −1. Here, for the identification result obtained from each, a numerical value before the sign function is multiplied (temporary) Using the same method as bilinear interpolation used for enlargement of a digital image as the identification result, each identification result is weighted and averaged. Next, the sign function is applied and output to the result output unit 126 as a (final) identification result. Note that more advanced methods such as a method using a weighted average of five or more neighborhoods such as bicubic interpolation and spline interpolation can be used, and variations are various.

結果出力部126は、顔方向推定部123および属性識別部125から取得した情報を出力する。例えば、結果出力部126は、属性識別部125から識別結果である各人の属性情報を取得した場合には、当該属性情報を出力する。また、結果出力部126は、顔方向推定部123から視聴人数を取得した場合には、当該視聴人数を出力する。また、結果出力部126は、属性識別部125から人物属性別の視聴人数を取得した場合には、当該人物属性別の視聴人数を出力する。   The result output unit 126 outputs information acquired from the face direction estimation unit 123 and the attribute identification unit 125. For example, when the result output unit 126 acquires the attribute information of each person as the identification result from the attribute identification unit 125, the result output unit 126 outputs the attribute information. In addition, when the number of viewers is acquired from the face direction estimation unit 123, the result output unit 126 outputs the number of viewers. In addition, when the result output unit 126 acquires the number of viewers by person attribute from the attribute identification unit 125, the result output unit 126 outputs the number of viewers by person attribute.

続いて、図16および図17を用いて、年齢層識別において、主観年齢層を識別する属性識別器を生成する場合の具体例などについて説明する。図16および図17は、主観年齢層の概念を説明するための説明図である。図16(a)に示すように、一人の顔画像に対し、多数の人物の主観年齢層を集計すると、複数のクラス(層)にばらつく可能性が高い。そのため、まず、主観年齢層で全体のa%(aはあらかじめ決定するパラメータ値)を超えるもクラスのみを正解とする。例えば、図16(b)に示す例では、20歳〜34歳のクラスおよび35歳〜49歳のクラスは正解とするが、19歳以下のクラスおよび50歳以上のクラスは不正解とする。   Next, a specific example in the case of generating an attribute classifier for identifying a subjective age group in age group identification will be described with reference to FIGS. 16 and 17. 16 and 17 are explanatory diagrams for explaining the concept of the subjective age group. As shown in FIG. 16A, if the subjective age groups of a large number of persons are aggregated with respect to a single face image, there is a high possibility that the classes will vary among a plurality of classes (layers). For this reason, first, only a class that exceeds a% (a is a parameter value determined in advance) in the subjective age group is regarded as correct. For example, in the example shown in FIG. 16B, a class of 20 years old to 34 years old and a class of 35 years old to 49 years old are correct, but a class of 19 years old or younger and a class of 50 years old or older are incorrect.

ところで、主観年齢層を分けるときのクラスの分け方も種々の分け方が考えられるが(例えば、図16に示す方法やn十代毎に分ける方法)、通常、主観年齢層が3クラス以上となるような分け方を設定する。4クラスの主観年齢層(19歳以下のクラス、20歳〜34歳のクラス、35歳〜49歳のクラス、50歳以上のクラス)を設定する場合、例えば、図17(a)のように、19歳以下と20歳以上を識別する属性識別器1、34歳以下と35歳以上を識別する属性識別器2、49歳以下と50歳以上を識別する属性識別器2をそれぞれ学習する。つまり、属性識別器1、2、3の識別結果を分析すれば、上記4クラスの主観年齢層に対応できる。各属性識別器は2クラスの年齢層(例えば、図17(a)に示す属性識別器2の場合、34歳以下のクラスと35歳以上のクラス)を判別し、1か−1として出力する最も単純な識別器の組合せで構成可能である。   By the way, there are various ways of dividing the classes when dividing the subjective age group (for example, the method shown in FIG. 16 or the method of dividing every n teens). Set up a way of dividing. When four classes of subjective age groups (a class of 19 years old or less, a class of 20 years old to 34 years old, a class of 35 years old to 49 years old, a class of 50 years old or more) are set, for example, as shown in FIG. , An attribute discriminator 1 for identifying 19 years or younger and 20 or older, an attribute discriminator 2 for discriminating 34 years or younger and 35 or older, and an attribute discriminator 2 for identifying 49 or younger and 50 or older. That is, if the identification results of the attribute classifiers 1, 2, and 3 are analyzed, the four classes of subjective age groups can be handled. Each attribute discriminator discriminates two classes of age groups (for example, in the case of the attribute discriminator 2 shown in FIG. 17A, a class of 34 years old or younger and a class of 35 years old or older) and outputs as 1 or -1. It can be configured with the simplest combination of discriminators.

問題は、正解が2クラス以上発生する場合(例えば、図16(b)のような結果が出る顔画像の場合)の対処であるが、当該問題の対処としては、例えば、属性識別器を学習するために渡す教師信号として、下記式(3)に従って算出される内分値を与えるようにしてもよい。   The problem is to deal with cases where correct answers occur in two or more classes (for example, a face image that produces a result as shown in FIG. 16B). For this purpose, an internal division value calculated according to the following equation (3) may be given as a teacher signal to be passed.

内分値=(O×P+O×P)÷(P+P)…(3)
但し、Oはある属性識別器Xにおいて小さい方の年齢層Sであると判別された場合の出力値、Oは当該属性識別器Xにおいて大きい方の年齢層Bであると判別された場合の出力値、Pは年齢層Sに含まれる最大の主観年齢層に属すると評価した他者の割合(頻度)、Pは年齢層Bに含まれる最小の主観年齢層に属すると評価した他者の割合(頻度である。
Internal value = (O S × P S + O B × P B ) ÷ (P S + P B ) (3)
However, O output value when S is determined that is smaller age S of the certain attribute identifier X, if O B is it is judged that age B larger in the attribute identifier X , P S is the ratio (frequency) of others who are evaluated as belonging to the largest subjective age group included in the age group S, and P B is evaluated as belonging to the minimum subjective age group included in the age group B Percentage of others (frequency.

具体的には、属性識別器2の場合、図17(a)に示すように、小さい方の年齢層S(34歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(35歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(34歳以下のクラス)に含まれる最大の主観年齢層(20〜34歳のクラス)に属すると評価した他者の頻度P=0.6、年齢層B(35歳以上のクラス)に含まれる最小の主観年齢層(35〜49歳のクラス)に属すると評価した他者の頻度P=0.3である。従って、属性識別器2に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.6+1×0.3)÷(0.6+0.3)=−0.333と算出される。 Specifically, in the case of the attribute discriminator 2, as shown in FIG. 17A, the output value O S = −1 when it is determined that it is the smaller age group S (class of 34 years old or less). , The output value O B = 1 when it is determined that it is the larger age group B (class 35 years or older), as shown in FIG. 16A, the age group S (class 34 years or younger) Frequency P S = 0.6 of others evaluated as belonging to the largest included subjective age group (classes 20 to 34 years old), minimum subjective age group included in age group B (classes 35 years and older) ( The frequency P B = 0.3 of others evaluated as belonging to the class of 35 to 49 years old. Therefore, the internal value (teacher signal) related to the attribute discriminator 2 is (−1 × 0.6 + 1 × 0.3) ÷ (0...) As shown in FIG. 6 + 0.3) = − 0.333.

同様に、属性識別器1の場合、図17(a)に示すように、小さい方の年齢層S(19歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(20歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(19歳以下のクラス)に含まれる最大の主観年齢層(19歳以下のクラス)に属すると評価した他者の頻度P=0.1、年齢層B(20歳以上のクラス)に含まれる最小の主観年齢層(20〜34歳のクラス)に属すると評価した他者の頻度P=0.6である。従って、属性識別器1に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.1+1×0.6)÷(0.1+0.6)=0.714と算出される。 Similarly, in the case of the attribute discriminator 1, as shown in FIG. 17 (a), the output value O S = −1 when the lower age group S (class of 19 years or less) is discriminated is large. Output value O B = 1 when it is determined that the other age group B (class of 20 years or older) is included in the age group S (class of 19 years or less) as shown in FIG. Frequency P S = 0.1 of others evaluated as belonging to the maximum subjective age group (classes of 19 years old and under), minimum subjective age group (20 to 34) included in age group B (classes of 20 years old and over) The frequency P B = 0.6 of others evaluated as belonging to the age class). Therefore, the internal value (teacher signal) related to the attribute discriminator 1 is (−1 × 0.1 + 1 × 0.6) ÷ (0...) According to the above equation (3), as shown in FIG. 1 + 0.6) = 0.714.

同様に、属性識別器3の場合、図17(a)に示すように、小さい方の年齢層S(49歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(50歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(49歳以下のクラス)に含まれる最大の主観年齢層(35〜49歳以下のクラス)に属すると評価した他者の頻度P=0.3、年齢層B(50歳以上のクラス)に含まれる最小の主観年齢層(50歳以上のクラス)に属すると評価した他者の頻度P=0である。従って、属性識別器3に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.3+1×0)÷(0.3+0)=−1と算出される。 Similarly, in the case of the attribute discriminator 3, as shown in FIG. 17A, the output value O S = −1 when it is determined that it is the smaller age group S (class of 49 years old or less), large The output value O B = 1 when it is determined that the other age group B (class 50 years or older) is included in the age group S (class 49 or younger) as shown in FIG. Frequency P S = 0.3 of others evaluated as belonging to the largest subjective age group (35 to 49 years old or lower class), minimum subjective age group (50 included in age group B (class 50 years old or older)) The frequency P B = 0 of others who are evaluated as belonging to a class aged over). Therefore, the internal division value (teacher signal) related to the attribute discriminator 3 is (−1 × 0.3 + 1 × 0) ÷ (0.3 + 0) as shown in FIG. = -1.

また、より単純に、それぞれの頻度(割合)を等価と考え、下記式(4)に従って内分値を算出してもよい。即ち、上記式(3)において、P=P=0.5としてもよい。 In addition, the internal values may be calculated according to the following equation (4), considering each frequency (ratio) as equivalent. That is, in the above formula (3), P S = P B = 0.5 may be set.

内分値=(O×0.5+O×0.5)÷(0.5+0.5)…(4) Internal value = (O S × 0.5 + O B × 0.5) ÷ (0.5 + 0.5) (4)

なお、上記式(4)に従えば、例えば、属性識別器2に係る内分値(教師信号)は、(−1×0.5+1×0.5)÷(0.5+0.5)=0と算出される。   According to the above equation (4), for example, the internal value (teacher signal) related to the attribute discriminator 2 is (−1 × 0.5 + 1 × 0.5) ÷ (0.5 + 0.5) = 0. Is calculated.

なお、基礎実験等により、パラメータaを適切に設定すれば、クラス間が隣接せずに正解が2クラス以上発生するケースは稀であることが分かっている。そのため、複数の正解クラスが隣接しないケースは無視する。仮に、複数の正解クラスが隣接しないようなデータが出現した場合には、当該データを学習データから除外する。また、属性識別器から矛盾する結果(例えば、19歳以下、かつ、35歳以上であるという結果)が出力される可能性を否定できないため、矛盾した結果の出力されたときのルール(例えば、「常に、年齢が少ない方のクラスを優先して出力する」というようなルール)を予め設定しておくことよい。   In addition, it is known from a basic experiment or the like that if the parameter a is appropriately set, it is rare that two or more correct answers occur without adjacent classes. Therefore, the case where multiple correct classes are not adjacent is ignored. If data such that a plurality of correct classes do not adjoin each other appears, the data is excluded from the learning data. In addition, since it is impossible to deny the possibility that an inconsistent result (for example, a result of being 19 years old or younger and 35 years old or older) is output from the attribute discriminator, a rule when an inconsistent result is output (for example, It is preferable to set in advance a rule such as “always give priority to a class with a lower age”.

続いて、図18を用いて顔方向推定エンジン18の動作を説明する。図18は、顔方向推定エンジン18の動作の一例を示すフローチャートである。図18(a)に示すフローチャートは、学習処理部110の動作の流れである。図18(b)に示すフローチャートは、認識処理部120の動作の流れである。図18(c)に示すフローチャートは、顔方向別属性識別器生成部113が主観年代に係る教師信号を作成する場合の動作の流れである。   Next, the operation of the face direction estimation engine 18 will be described with reference to FIG. FIG. 18 is a flowchart showing an example of the operation of the face direction estimation engine 18. The flowchart shown in FIG. 18A is an operation flow of the learning processing unit 110. The flowchart shown in FIG. 18B is an operation flow of the recognition processing unit 120. The flowchart shown in FIG. 18C is an operation flow when the face direction attribute discriminator generating unit 113 creates a teacher signal related to the subjective age.

図18(a)において、学習用データ取得部111は、学習用データ(顔画像データ、学習用顔方向パラメータ、属性データ、集計データ)を取得する(ステップS111)。学習用データ取得部111は顔画像データを学習用顔領域検出部112に供給し、学習用顔方向パラメータおよび属性データを顔方向別属性識別器生成部113に供給する。   In FIG. 18A, the learning data acquisition unit 111 acquires learning data (face image data, learning face direction parameters, attribute data, and aggregate data) (step S111). The learning data acquisition unit 111 supplies the face image data to the learning face area detection unit 112 and supplies the learning face direction parameter and the attribute data to the face direction attribute discriminator generation unit 113.

次いで、学習用顔領域検出部112は、顔画像データから顔領域を検出する(ステップS112)。学習用顔領域検出部112は、顔切出画像データを顔方向別属性識別器生成部113に供給する。   Next, the learning face area detection unit 112 detects a face area from the face image data (step S112). The learning face area detection unit 112 supplies the face cut image data to the face direction attribute classifier generation unit 113.

次いで、顔方向別属性識別器生成部113は、属性識別器を生成する(ステップS113)。具体的には、顔方向別属性識別器生成部113は、図18(c)のフローチャートを実行し、教師信号を用いて属性識別器を生成する。顔方向別属性識別器生成部113は、生成した属性識別器を顔方向別属性識別器記憶部114に記憶する(ステップS114)。   Next, the face direction-specific attribute classifier generation unit 113 generates an attribute classifier (step S113). Specifically, the face direction attribute discriminator generation unit 113 executes the flowchart of FIG. 18C and generates an attribute discriminator using a teacher signal. The face direction attribute discriminator generator 113 stores the generated attribute discriminator in the face direction attribute discriminator storage unit 114 (step S114).

次いで、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したか否かを判断する(ステップS115)。顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成していないと判断した場合(ステップS115:No)、ステップS111に戻る。一方、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したと判断した場合(ステップS115:Yes)、図18(a)に示すフローチャートは終了する。   Next, the face direction attribute classifier generator 113 determines whether or not all face direction attribute classifiers have been generated (step S115). If the face direction attribute classifier generator 113 determines that not all face direction attribute classifiers have been generated (step S115: No), the process returns to step S111. On the other hand, when the face direction attribute classifier generator 113 determines that all face direction attribute classifiers have been generated (step S115: Yes), the flowchart shown in FIG.

図18(b)において、計測用画像データ取得部121は、計測用画像データを取得する(ステップS121)。計測用画像データ取得部121は、計測用画像データを認識用顔領域検出部122および認識用顔領域再検出部124に供給する。   In FIG. 18B, the measurement image data acquisition unit 121 acquires measurement image data (step S121). The measurement image data acquisition unit 121 supplies the measurement image data to the recognition face region detection unit 122 and the recognition face region redetection unit 124.

次いで、認識用顔領域検出部122は、計測用画像データから顔領域を検出する(ステップS122)。認識用顔領域検出部122は、顔切出画像データを顔方向推定部123に供給する。   Next, the recognition face area detection unit 122 detects a face area from the measurement image data (step S122). The recognition face area detection unit 122 supplies the face cut image data to the face direction estimation unit 123.

次いで、顔方向推定部123は、認識用顔領域検出部122によって出力された顔切出画像データに基づいて、計測用画像の顔方向を推定する(ステップS123)。顔方向推定部123は、計測用画像の被写体の顔方向を示す属性識別用顔方向パラメータ(roll角およびスケール値)を認識用顔領域再検出部124に供給し、計測用画像の被写体の顔方向を示す属性識別用顔方向パラメータ(yaw角およびpitch角)を属性識別部125に供給する。   Next, the face direction estimation unit 123 estimates the face direction of the measurement image based on the face cut-out image data output by the recognition face region detection unit 122 (step S123). The face direction estimation unit 123 supplies attribute recognition face direction parameters (roll angle and scale value) indicating the face direction of the subject of the measurement image to the recognition face region redetection unit 124, and the face of the subject of the measurement image Attribute identification face direction parameters (yaw angle and pitch angle) indicating the direction are supplied to the attribute identification unit 125.

次いで、認識用顔領域再検出部124は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(roll角およびスケール値)に基づいて、計測用画像データから顔領域を再度切り出す(ステップS124)。認識用顔領域再検出部124は、顔切出画像データを属性識別部125に供給する。   Next, the recognizing face area re-detecting unit 124 cuts out the face area again from the measurement image data based on the attribute identifying face direction parameters (roll angle and scale value) output by the face direction estimating unit 123 (step). S124). The recognition face area re-detection unit 124 supplies the face cut-out image data to the attribute identification unit 125.

次いで、属性識別部125は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(yaw角およびpitch角)に基づいて、顔方向別属性識別器記憶部14に記憶されている複数の属性識別器のなかから1または2以上の属性識別器を選択する(ステップS125)。そして、属性識別部125は、選択した属性識別器に、認識用顔領域再検出部124から取得した顔切出画像データを入力し、識別結果を得る(ステップS126)。結果出力部126では、属性識別部125から識別結果を取得し出力する(ステップS127)。そして、図18(b)に示すフローチャートは終了する。   Next, the attribute identifying unit 125, based on the attribute identifying face direction parameters (yaw angle and pitch angle) output by the face direction estimating unit 123, a plurality of attributes stored in the face direction-specific attribute classifier storage unit 14. One or more attribute classifiers are selected from the attribute classifiers (step S125). Then, the attribute identification unit 125 inputs the face cut-out image data acquired from the recognition face area redetection unit 124 to the selected attribute classifier, and obtains the identification result (step S126). The result output unit 126 acquires and outputs the identification result from the attribute identification unit 125 (step S127). Then, the flowchart shown in FIG.

図18(c)において、顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(集計データ)を取得する。具体的には、顔方向別属性識別器生成部113は、学習用データ取得部111から、例えば、図16(a)に示すように、主観年齢層頻度データを取得する(ステップS131)。   In FIG. 18C, the face direction attribute discriminator generation unit 113 acquires learning data (aggregated data) from the learning data acquisition unit 111. Specifically, the face direction attribute classifier generator 113 acquires subjective age group frequency data from the learning data acquisition unit 111, for example, as shown in FIG. 16A (step S131).

次いで、顔方向別属性識別器生成部113は、図16(b)に示すように、予め設定した閾値aに基づいて、各クラスについて正解/不正解を判別する(ステップS132)。顔方向別属性識別器生成部113は、正解になったクラスについて、主観年齢層頻度データにばらつきがある場合は、上述の如く、複数隣り合う正解クラス同士での頻度による重み付き内分値を算出し、教師信号を作成する(ステップS133)(例えば図17(b)を参照)。   Next, as shown in FIG. 16B, the face direction attribute classifier generator 113 discriminates the correct answer / incorrect answer for each class based on a preset threshold value a (step S132). When there is a variation in the subjective age group frequency data for the correct class, the face direction-specific attribute classifier generator 113, as described above, calculates a weighted internal value based on the frequency between the adjacent correct classes. The teacher signal is calculated and created (step S133) (see, for example, FIG. 17B).

なお、図16(b)は2クラスに正解がまたがる場合を示しているが、3クラス以上に正解がまたがる場合でも、教師信号”−1”に該当する正解クラスの頻度の割合の合計値と、教師信号”1”に該当する正解クラスの頻度の割合の合計値とで内分値を容易に算出することができる。また、前述したが、頻度の割合を全て等価とし内分値を計算してもよい。なお、正解になったクラスについて、主観年齢層頻度データにばらつきがない場合は、通常通り適切に、1または−1を教師信号として各属性識別器に出力する。また、不正解になったクラスは無視する。   FIG. 16B shows the case where the correct answer spans two classes. Even when the correct answer spans three or more classes, the total value of the ratio of the frequency of the correct class corresponding to the teacher signal “−1” Therefore, the internal division value can be easily calculated from the total value of the proportions of the correct class frequencies corresponding to the teacher signal “1”. Further, as described above, the internal division value may be calculated with all the frequency ratios being equivalent. When there is no variation in the subjective age group frequency data for the correct class, 1 or −1 is appropriately output to each attribute classifier as a teacher signal as usual. Also, ignore the class that is incorrect.

顔方向別属性識別器生成部113は、全ての人物の教師信号を作成したか否かを判断する(ステップS134)。顔方向別属性識別器生成部113は、全ての人物の教師信号を作成していないと判断した場合(ステップS134:No)、ステップS131に戻る。一方、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したと判断した場合(ステップS134:Yes)、図18(c)に示すフローチャートは終了する。   The face direction attribute classifier generator 113 determines whether or not teacher signals for all persons have been created (step S134). If the face direction attribute classifier generator 113 determines that the teacher signals for all persons have not been created (step S134: No), the process returns to step S131. On the other hand, if the face direction attribute classifier generator 113 determines that all face direction attribute classifiers have been generated (step S134: Yes), the flowchart shown in FIG. 18C ends.

以上、顔方向推定エンジン18によれば、顔検出後に顔の姿勢を示すyaw角、pitch角、roll角およびスケール値を推定し、その結果をもとに入力画像から顔領域を再度切出すとともに、最も適切な識別器を1つ、あるいは複数個選択し、重み付き平均等を利用して結果を統合することにより、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。
また、適切な教師信号を算出して設定するため、主観年齢層を精度良く識別できるようになる。具体的には、年齢層識別においては、予め集計した主観年齢層の頻度分布を基に、ある閾値を通して正解/不正解を決定し、さらに、正解クラスの頻度の割合を重みとした内分値(正解と判定した各クラスに属すると評価した他者の割合を重みとした内分値)、または、頻度の割合を全て等価とした内分値を教師信号として識別器に渡すことによって、主観年齢層を精度良く識別できるようになる。
As described above, the face direction estimation engine 18 estimates the yaw angle, the pitch angle, the roll angle, and the scale value indicating the posture of the face after the face detection, and cuts out the face area from the input image based on the result. By selecting one or more most appropriate classifiers and integrating the results using a weighted average, etc., it is possible to realize attribute identification that is robust and fast in processing the subject's face direction Become.
In addition, since an appropriate teacher signal is calculated and set, the subjective age group can be accurately identified. Specifically, in age group identification, the correct / incorrect answer is determined through a certain threshold based on the frequency distribution of the subjective age group that has been pre-aggregated, and further, an internal value with the ratio of the correct class frequency as a weight (Individual values with weights of the proportion of others evaluated as belonging to each class determined to be correct), or by passing the divided values with all frequency proportions as equivalent to the discriminator as subjective signals, The age group can be accurately identified.

以上、図14から図18において説明した顔方向推定エンジン18によれば、顔検出後に顔の姿勢を示すyaw角、pitch角、roll角およびスケール値を推定し、その結果をもとに入力画像から顔領域を再度切出すとともに、最も適切な識別器を1つ、あるいは複数個選択し、重み付き平均等を利用して結果を統合することにより、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。
また、図14から図18において説明した顔方向推定エンジン18によれば、適切な教師信号を算出して設定するため、主観年齢層を精度良く識別できるようになる。具体的には、年齢層識別においては、予め集計した主観年齢層の頻度分布を基に、ある閾値を通して正解/不正解を決定し、さらに、正解クラスの頻度の割合を重みとした内分値(正解と判定した各クラスに属すると評価した他者の割合を重みとした内分値)、または、頻度の割合を全て等価とした内分値を教師信号として識別器に渡すことによって、主観年齢層を精度良く識別できるようになる。
なお、図14に示す顔方向推定エンジン18は、画像処理部110および認識処理部120の両方を備える構成であるが、広告効果測定装置3の外部の装置が画像処理部110の機能を備え、顔方向推定エンジン18は、認識処理部120のみを備えるようにしてもよい。
As described above, according to the face direction estimation engine 18 described with reference to FIGS. 14 to 18, the yaw angle, the pitch angle, the roll angle, and the scale value indicating the posture of the face after the face detection are estimated, and the input image is based on the result. The face area is cut out again, and one or more most appropriate classifiers are selected, and the results are integrated using a weighted average or the like. Fast attribute identification can be realized.
Further, according to the face direction estimation engine 18 described with reference to FIGS. 14 to 18, since an appropriate teacher signal is calculated and set, the subjective age group can be accurately identified. Specifically, in age group identification, the correct / incorrect answer is determined through a certain threshold based on the frequency distribution of the subjective age group that has been pre-aggregated, and further, an internal value with the ratio of the correct class frequency as a weight (Individual values with weights of the proportion of others evaluated as belonging to each class determined to be correct), or by passing the divided values with all frequency proportions as equivalent to the discriminator as subjective signals, The age group can be accurately identified.
The face direction estimation engine 18 shown in FIG. 14 is configured to include both the image processing unit 110 and the recognition processing unit 120. However, an external device of the advertising effect measurement device 3 includes the function of the image processing unit 110. The face direction estimation engine 18 may include only the recognition processing unit 120.

なお、本発明の一実施形態による広告効果測定装置3の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態による広告効果測定装置3の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Note that a program for executing each process of the advertisement effect measuring apparatus 3 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system. By executing, the above-described various processes related to each process of the advertisement effect measuring apparatus 3 according to the embodiment of the present invention may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1a…混雑度計測カメラ
1b…顔方向推定カメラ
2…広告媒体
3…広告効果測定装置
12…カメラ制御部
13…混雑度計測チューニング部
14…混雑度計測エンジン
17…顔方向推定チューニング部
18…顔方向推定エンジン
19…クライアント部
20…混雑度計測エンジン制御部
21…顔方向推定エンジン制御部
23…統計解析情報生成部
110…学習処理部
111…学習用データ取得部
112…学習用顔領域検出部
113…顔方向別属性識別器生成部
114…顔方向別属性識別器記憶部
120…認識処理部
121…計測用画像データ取得部
122…認識用顔領域検出部
123…顔方向推定部
124…認識用顔領域再検出部
125…属性識別部
126…結果出力部
DESCRIPTION OF SYMBOLS 1a ... Congestion degree measurement camera 1b ... Face direction estimation camera 2 ... Advertising medium 3 ... Advertisement effect measuring device 12 ... Camera control part 13 ... Congestion degree measurement tuning part 14 ... Congestion degree measurement engine 17 ... Face direction estimation tuning part 18 ... Face Direction estimation engine 19 ... client unit 20 ... congestion degree measurement engine control unit 21 ... face direction estimation engine control unit 23 ... statistical analysis information generation unit 110 ... learning processing unit 111 ... learning data acquisition unit 112 ... learning face area detection unit 113: Face direction attribute classifier generator 114 ... Face direction attribute classifier storage unit 120 ... Recognition processing unit 121 ... Measurement image data acquisition unit 122 ... Recognition face area detection unit 123 ... Face direction estimation unit 124 ... Recognition Face area redetection unit 125 ... attribute identification unit 126 ... result output unit

Claims (7)

広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理手段と、
前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理手段と、
前記広告媒体の視聴可能エリアのうち前記第1のカメラの撮影範囲の占める割合である第1のカメラエリアカバー率と、前記広告媒体の視聴可能エリアのうち前記第2のカメラの撮影範囲の占める割合である第2のカメラエリアカバー率と、前記第1の画像処理手段によって計測した前記滞在者数と、前記第2の画像処理手段によって計測した前記視聴者数とに基づいて、前記広告媒体の効果を示す広告効果情報として、注目率、延べ滞在人秒、延べ視聴人秒、又は、人秒ベースの注目率を生成して出力する広告効果情報生成手段とを備え、
前記広告効果情報生成手段は、
前記注目率を、注目率=(視聴者数/第1のカメラエリアカバー率)/(滞在者数/第2のカメラエリアカバー率)によって求め、
前記延べ滞在人秒を、所定の時間間隔において計測した前記滞在者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、
前記延べ視聴人秒を、前記時間間隔において計測した前記視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、
前記人秒ベースの注目率を、人秒ベースの注目率=(延べ視聴人秒/延べ滞在人秒)によって求めることを特徴とする広告効果測定装置。
First image processing means for performing signal processing on a pixel-by-pixel basis for a captured image captured by a first camera that captures a first area in the vicinity of the advertising medium, and measuring the number of visitors in the first area; ,
Detecting a face area in a picked-up image picked up by a second camera that picks up a second area that is a part of the first area, estimating a face direction of each face area, Second image processing means for measuring the number of viewers of the advertising medium in the area of 2,
The first camera area coverage ratio, which is the ratio of the shooting range of the first camera in the viewable area of the advertisement medium, and the shooting range of the second camera in the viewable area of the advertisement medium percentage and second camera area coverage ratio is, wherein the resident number measured by the first image processing means, based on said number of viewers measured by said second image processing means, said advertising medium Advertising effect information generating means for generating and outputting the attention rate, the total number of visitors seconds, the total number of viewers seconds, or the attention rate based on person seconds ,
The advertisement effect information generating means includes:
The attention rate is obtained by attention rate = (number of viewers / first camera area coverage) / (number of visitors / second camera area coverage),
The total visitor seconds is obtained by multiplying the number of visitors measured in a predetermined time interval and the time interval, and adding the calculated values within a unit time.
The total number of viewer seconds is obtained by multiplying the number of viewers measured in the time interval and the time interval, and adding the calculated values within a unit time.
The advertisement effect measuring apparatus characterized in that the attention rate based on human seconds is obtained by the attention rate based on human seconds = (total viewer seconds / total visitor seconds) .
前記第2の画像処理手段は、
前記第2のカメラの撮像画像を取得する撮像画像取得手段と、
前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、
前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数する顔方向推定手段と
を有することを特徴とする請求項1に記載の広告効果測定装置。
The second image processing means includes
Captured image acquisition means for acquiring a captured image of the second camera;
Recognizing face area detecting means for detecting a face area from a captured image of the second camera and outputting face cut-out image data;
Based on the face cut-out image data output by the recognition face area detection means, the face direction of the subject of the image captured by the second camera is estimated, and the face direction matches the direction of the advertising medium. The advertisement effect measuring apparatus according to claim 1, further comprising a face direction estimating unit that counts the number of viewers who are viewers.
前記第2の画像処理手段は、
学習用データとして、種々の方向から撮像された顔画像データ、前記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、前記被写体の属性データを取得する学習用データ取得手段と、
前記学習用データ取得手段によって取得された前記顔画像データから、被写体の顔領域を検出して切り出した顔切出画像データを出力する学習用顔領域検出手段と、
前記学習用顔領域検出手段によって出力された前記顔切出画像データであって前記学習用顔方向パラメータが同一である複数の前記顔切出画像データと、当該複数の顔切出画像データそれぞれの前記属性データとに基づいて、前記被写体の顔方向別に、前記被写体の属性を識別する属性識別器を生成する顔方向別属性識別器生成手段と、
前記顔方向別属性識別器生成手段によって生成された前記属性識別器を記憶する顔方向別属性識別器記憶手段と、
前記第2のカメラの撮像画像を取得する撮像画像取得手段と、
前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、
前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数するとともに、前記被写体の顔方向を示す属性識別用顔方向パラメータを出力する顔方向推定手段と、
前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記前記第2のカメラの撮像画像から、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する認識用顔領域再検出手段と、
前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記顔方向別属性識別器記憶手段に記憶されている複数の前記属性識別器のなかから1または2以上の前記属性識別器を選択し、当該選択した1または2以上の前記属性識別器に、前記認識用顔領域再検出手段が出力した前記顔切出画像データを入力し、前記前記第2のカメラの撮像画像の被写体に係る識別結果を取得する属性識別手段と
を有し、
人物属性別の視聴者数を算出することを特徴とする請求項1に記載の広告効果測定装置。
The second image processing means includes
Learning data acquisition means for acquiring face image data captured from various directions, learning face direction parameters indicating the face direction of the subject of the face image data, and attribute data of the subject as learning data,
Learning face area detection means for detecting face area of a subject and outputting cut-out face image data from the face image data acquired by the learning data acquisition means;
A plurality of the face cut-out image data output by the learning face area detecting means and having the same learning face direction parameter, and each of the plurality of face cut-out image data A face direction attribute classifier generating unit that generates an attribute classifier for identifying the attribute of the subject for each face direction of the subject based on the attribute data;
A face direction attribute classifier storage unit for storing the attribute classifier generated by the face direction attribute classifier generation unit;
Captured image acquisition means for acquiring a captured image of the second camera;
Recognizing face area detecting means for detecting a face area from a captured image of the second camera and outputting face cut-out image data;
Based on the face cut-out image data output by the recognition face area detection means, the face direction of the subject of the image captured by the second camera is estimated, and the face direction matches the direction of the advertising medium. A face direction estimating means for counting the number of viewers as a viewer and outputting an attribute identifying face direction parameter indicating the face direction of the subject;
Based on the attribute identification face direction parameter output by the face direction estimation means, the face image of the subject is detected again from the captured image of the second camera, and face cut image data is output. Recognizing face area re-detecting means;
Based on the attribute identification face direction parameter output by the face direction estimation unit, one or more of the attributes from among the plurality of the attribute classifiers stored in the face direction attribute classifier storage unit The discriminator is selected, and the face cut-out image data output from the recognition face area re-detecting means is input to the selected one or more attribute discriminators, and the captured image of the second camera is input. Attribute identifying means for obtaining an identification result relating to the subject of
The advertisement effect measuring apparatus according to claim 1, wherein the number of viewers by person attribute is calculated.
前記広告効果情報生成手段は、The advertisement effect information generating means includes:
前記時間間隔において計測した前記人物属性別の視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって人物属性別の延べ視聴人秒を求め、前記人物属性別の延べ視聴人秒を、前記広告媒体の効果を示す広告効果情報として出力することを特徴とする請求項3に記載の広告効果測定装置。Multiplying the number of viewers for each person attribute measured in the time interval and the time interval, and totaling the calculated values within a unit time to obtain the total viewer seconds by person attribute, 4. The advertisement effect measuring apparatus according to claim 3, wherein another total number of viewer seconds is output as advertisement effect information indicating an effect of the advertisement medium.
前記広告効果情報生成手段は、
前記広告媒体の設置場所に係る場所属性情報として、前記滞在者数に係る性別比率、年代比率、又は性別と年代とを組み合わせた属性区分比率を算出することを特徴とする請求項3に記載の広告効果測定装置。
The advertisement effect information generating means includes:
As the location attribute information relating to the location of the advertising medium, sex ratio according to the residents number, age ratio, or according to claim 3, characterized in that to calculate the gender and attribute classification ratio combining and age Advertising effect measurement device.
広告媒体の効果を測定するために、第1の画像処理手段と、第2の画像処理手段と、広告効果情報生成手段とを備える広告効果測定装置における広告効果指標測定方法であって、
前記第1の画像処理手段が、前記広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理ステップと、
前記第2の画像処理手段が、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理ステップと、
前記広告効果情報生成手段が、前記広告媒体の視聴可能エリアのうち前記第1のカメラの撮影範囲の占める割合である第1のカメラエリアカバー率と、前記広告媒体の視聴可能エリアのうち前記第2のカメラの撮影範囲の占める割合である第2のカメラエリアカバー率と、前記第1の画像処理ステップによって計測した前記滞在者数と、前記第2の画像処理ステップによって計測した前記視聴者数とに基づいて、前記広告媒体の効果を示す広告効果情報として、注目率、延べ滞在人秒、延べ視聴人秒、又は、人秒ベースの注目率を生成して出力する広告効果情報生成ステップとを有し、
前記広告効果情報生成ステップでは、
前記注目率を、注目率=(視聴者数/第1のカメラエリアカバー率)/(滞在者数/第2のカメラエリアカバー率)によって求め、
前記延べ滞在人秒を、所定の時間間隔において計測した前記滞在者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、
前記延べ視聴人秒を、前記時間間隔において計測した前記視聴者数と前記時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって求め、
前記人秒ベースの注目率を、人秒ベースの注目率=(延べ視聴人秒/延べ滞在人秒)によって求めることを特徴とする広告効果測定方法。
In order to measure the effect of an advertising medium, there is provided an advertising effectiveness index measuring method in an advertising effectiveness measuring device comprising a first image processing means, a second image processing means, and an advertising effect information generating means ,
The first image processing means, first the captured image captured by the camera signal processing in the pixel unit, residents number of the first area for capturing the first area in the vicinity of the advertising medium A first image processing step for measuring
Said second image processing means detects a face area within the second image captured by the camera for imaging the second area which is a part of the area of the first area, the face area A second image processing step of estimating a face direction of the first medium and measuring the number of viewers of the advertising medium in the second area ;
The advertisement effect information generating means includes a first camera area coverage ratio that is a ratio of a shooting range of the first camera in a viewable area of the advertisement medium, and the first of the viewable areas of the advertisement medium. A second camera area cover ratio that is a ratio of the shooting range of the two cameras , the number of visitors measured by the first image processing step , and the number of viewers measured by the second image processing step . Based on the above, as advertisement effect information indicating the effect of the advertising medium, an advertisement effect information generating step for generating and outputting an attention rate, total number of visitors seconds, total number of viewers seconds, or person-second-based attention rates, and Have
In the advertisement effect information generation step,
The attention rate is obtained by attention rate = (number of viewers / first camera area coverage) / (number of visitors / second camera area coverage),
The total visitor seconds is obtained by multiplying the number of visitors measured in a predetermined time interval and the time interval, and adding the calculated values within a unit time.
The total number of viewer seconds is obtained by multiplying the number of viewers measured in the time interval and the time interval, and adding the calculated values within a unit time.
The advertisement effect measuring method according to claim 1, wherein the attention rate based on human seconds is obtained by the attention rate based on human seconds = (total viewer seconds / total visitor seconds) .
請求項1から請求項5の何れか1項に記載の広告効果測定装置の処理をコンピュータに
実行させるためのプログラム。
The program for making a computer perform the process of the advertising effectiveness measuring apparatus of any one of Claims 1-5.
JP2010105791A 2010-04-30 2010-04-30 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM Active JP5272213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010105791A JP5272213B2 (en) 2010-04-30 2010-04-30 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010105791A JP5272213B2 (en) 2010-04-30 2010-04-30 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2011233119A JP2011233119A (en) 2011-11-17
JP5272213B2 true JP5272213B2 (en) 2013-08-28

Family

ID=45322340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010105791A Active JP5272213B2 (en) 2010-04-30 2010-04-30 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5272213B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6003124B2 (en) 2012-03-15 2016-10-05 オムロン株式会社 Authentication apparatus, authentication apparatus control method, control program, and recording medium
US20130342689A1 (en) 2012-06-25 2013-12-26 Intel Corporation Video analytics test system
JP6129600B2 (en) * 2013-03-18 2017-05-17 株式会社東芝 Information processing method and information processing system
KR20160058157A (en) * 2013-09-20 2016-05-24 인터디지탈 패튼 홀딩스, 인크 Verification of ad impressions in user-adaptive multimedia delivery framework
GB2519339A (en) * 2013-10-18 2015-04-22 Realeyes O Method of collecting computer user data
WO2017120469A1 (en) * 2016-01-06 2017-07-13 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
JP6564756B2 (en) * 2016-10-26 2019-08-21 日本電信電話株式会社 Flow condition measuring apparatus, method, and program
JP6615800B2 (en) 2017-01-11 2019-12-04 株式会社東芝 Information processing apparatus, information processing method, and program
JP7197171B2 (en) * 2017-06-21 2022-12-27 日本電気株式会社 Information processing device, control method, and program
US20230319348A1 (en) 2017-09-12 2023-10-05 Dental Imaging Technologies Corporation Systems and methods for assessing viewer engagement
JP6591571B2 (en) * 2018-01-10 2019-10-16 デジタル・アドバタイジング・コンソーシアム株式会社 Program, information processing method and information processing apparatus
JP6773923B2 (en) * 2018-02-07 2020-10-21 株式会社ウフル Spatial value output system, spatial value output method, and program
CN108563778B (en) * 2018-04-24 2022-11-04 北京市商汤科技开发有限公司 Method and device for processing attention information, storage medium and electronic equipment
JP6775553B2 (en) * 2018-08-13 2020-10-28 ヤフー株式会社 Information processing equipment, information processing methods and information processing programs
JP6511204B1 (en) * 2018-10-31 2019-05-15 ニューラルポケット株式会社 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, SERVER DEVICE, PROGRAM, OR METHOD
JP2020086741A (en) * 2018-11-21 2020-06-04 日本電気株式会社 Content selection device, content selection method, content selection system, and program
WO2021038800A1 (en) * 2019-08-29 2021-03-04 富士通株式会社 Advertisement viewing information output method, advertisement viewing information output program, and information processing device
CN111476600B (en) * 2020-03-23 2023-09-19 浙江新再灵科技股份有限公司 Statistical analysis method for audience numbers of direct ladder advertisement
WO2024018600A1 (en) * 2022-07-21 2024-01-25 三菱電機株式会社 Information processing device, control method, and control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065447A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program
US20090158309A1 (en) * 2007-12-12 2009-06-18 Hankyu Moon Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization

Also Published As

Publication number Publication date
JP2011233119A (en) 2011-11-17

Similar Documents

Publication Publication Date Title
JP5272213B2 (en) ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM
JP4876687B2 (en) Attention level measuring device and attention level measuring system
US20090158309A1 (en) Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
JP4934861B2 (en) Display system, display method, display effect measurement system, and display effect measurement method
JP5224360B2 (en) Electronic advertising device, electronic advertising method and program
JP5511035B2 (en) Advertisement distribution target person identification device and advertisement distribution device
CN101192270A (en) Display, device and method for accomplishing sight protection
US20180025233A1 (en) Image-capturing device, recording device, and video output control device
JP2008112401A (en) Advertisement effect measurement apparatus
JP4159159B2 (en) Advertising media evaluation device
US11200406B2 (en) Customer flow statistical method, apparatus and device
JP2009116510A (en) Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
JP7421149B2 (en) Advertisement viewing information output method, advertisement viewing information output program, and information processing device
JP2007265125A (en) Content display
CN110199316A (en) The image processing method of camera and camera
JP5272214B2 (en) Advertisement effect index measuring device, advertisement effect index measuring method and program
US20200302155A1 (en) Face detection and recognition method using light field camera system
CN110264497B (en) Method and device for determining tracking duration, storage medium and electronic device
JP6516702B2 (en) People count system, number count method, and view method of number count result
JP2007172378A (en) Apparatus for specifying object to be gazed at
US20160196576A1 (en) Systems, devices, and methods of measuring an advertising campaign
CN109492616B (en) Face recognition method for advertising screen based on autonomous learning
US11909776B2 (en) Online video distribution support method, online video distribution support apparatus and online video distribution support system
CN113988957B (en) Automatic image scoring method and system based on element recognition
CN112711982B (en) Visual detection method, device, system and storage device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350