JP2011060026A - System and device for analyzing face detection result, and computer program - Google Patents

System and device for analyzing face detection result, and computer program Download PDF

Info

Publication number
JP2011060026A
JP2011060026A JP2009209618A JP2009209618A JP2011060026A JP 2011060026 A JP2011060026 A JP 2011060026A JP 2009209618 A JP2009209618 A JP 2009209618A JP 2009209618 A JP2009209618 A JP 2009209618A JP 2011060026 A JP2011060026 A JP 2011060026A
Authority
JP
Japan
Prior art keywords
detection result
face detection
area
viewer
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009209618A
Other languages
Japanese (ja)
Other versions
JP5391951B2 (en
Inventor
Tomoko Tsubota
智子 坪田
Mari Nanba
真理 難波
Kazuya Takeda
和也 武田
Tetsutaro Ono
徹太郎 小野
Kazumasa Koizumi
和真 小泉
Yasuhisa Matsuba
靖寿 松葉
Satoshi Tabata
聡 田端
Kaichi Nomura
嘉市 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009209618A priority Critical patent/JP5391951B2/en
Publication of JP2011060026A publication Critical patent/JP2011060026A/en
Application granted granted Critical
Publication of JP5391951B2 publication Critical patent/JP5391951B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face detection result analysis system, which generates a map which describes the total number of viewers of an exhibit such as a digital signage and extends in a photographing distance direction of a camera for photographing the viewers. <P>SOLUTION: The face detection result analysis system 1 includes a face detection result analysis device 2. The face detection result analysis device includes a face detection means 20 which detects face image from a frame of video taken by a video camera 4, assigns an viewer ID of corresponding viewers to the face image detected from the frame, and stores a position and a rectangular size of a detection frame of face image at least as a face detection result in a log file; and an analysis means which stores an area map in which the visual field range of the video camera 4 is divided into a plurality of areas according to sectioned photographing distances, identifies an area in which viewers are present for each viewer ID by determining at least a photographing distance from the rectangular size of the detection frame of face image, and generates display data for displaying the total number of viewers who are present in the area on the area map. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は,ディスプレイを用いて表示される広告や商品などを見ている人物の顔をカメラで撮影し,カメラで撮影した映像に含まれる顔を分析する技術に係わる。   The present invention relates to a technique for photographing a face of a person watching an advertisement or a product displayed on a display with a camera and analyzing a face included in an image photographed with the camera.

ディスプレイを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が様々な場所に設置され始めている。デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になる。   Digital signage, which is an advertising medium for displaying advertisements using a display, has begun to be installed in various places. By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently distribute advertisements according to the location of digital signage.

既存のメディア(テレビ,新聞等)と同様に,デジタルサイネージにおいても広告効果を測定することが要求され, デジタルサイネージの広告効果の測定するとき,デジタルサイネージの前にいる人物をカメラで撮影し,非特許文献1,2で述べられているような,白黒のHaarパターンを用いた顔検出技術などを用いて,カメラで撮影された映像のフレームに含まれる顔の位置及び矩形サイズを検出し,顔の位置及び矩形サイズを利用して,デジタルサイネージの広告効果に係わる様々な指標を算出する。   As with existing media (television, newspapers, etc.), digital signage is required to measure advertising effectiveness. When measuring the effectiveness of digital signage advertising, a person in front of digital signage is photographed with a camera, Using face detection technology using a black and white Haar pattern as described in Non-Patent Documents 1 and 2, the position and rectangular size of the face included in the frame of the video shot by the camera are detected, Various indexes related to the advertising effect of digital signage are calculated using the face position and the rectangular size.

例えば,特許文献1には,広告媒体(特許文献1ではポスター)に顔の正面が向いている方が,広告媒体に対する注目度が高いことに着目し,顔の位置及び矩形サイズを利用して,広告媒体に対する顔の角度を広告媒体に対する注目度として算出する旨が記載されている。また,特許文献2には,顔の位置及び矩形サイズで特定される領域の画像を解析し,カメラで撮影された人物の属性(年齢・性別)を求め,人物の属性毎に視聴度を算出する旨が記載されている。   For example, in Patent Document 1, attention is paid to the fact that the front of the face faces the advertising medium (the poster in Patent Document 1) has a higher degree of attention to the advertising medium. , It is described that the face angle with respect to the advertising medium is calculated as the degree of attention to the advertising medium. Patent Document 2 analyzes the image of the area specified by the position of the face and the rectangular size, determines the attributes (age / gender) of the person photographed by the camera, and calculates the audience rating for each attribute of the person It is written to do so.

このように,デジタルサイネーなどの展示物の効果を測定するときなどは,デジタルサイネージなどの展示物の前にいる人物をカメラで撮影し,該カメラで撮影した映像に含まれる顔を検出し,顔画像の検出結果を分析することになるが,特許文献1及び特許文献2も含め,カメラで撮影した映像から検出した顔画像の分析に係わる技術として,デジタルサイネージなどの展示物を閲覧している人物の人数や位置を表示するマップを提供する技術は開示されていなかった。   In this way, when measuring the effects of exhibits such as digital signage, a person in front of the exhibits such as digital signage is photographed with a camera, and a face included in the image photographed with the camera is detected. The results of detection of face images will be analyzed. As a technology related to the analysis of face images detected from images taken by cameras, including Patent Document 1 and Patent Document 2, exhibitions such as digital signage are browsed. No technology has been disclosed that provides a map that displays the number and location of a person.

特許第4159159号公報Japanese Patent No. 4159159 特開2006-254274号公報JP 2006-254274 A

Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001. Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.

そこで,本発明は,デジタルサイネージや商品などの展示物を閲覧している人物の人数や位置を表示するマップを生成することのできる顔検出結果分析システム等を提供することを目的とする。   Therefore, an object of the present invention is to provide a face detection result analysis system and the like that can generate a map that displays the number and positions of people who are viewing exhibits such as digital signage and products.

上述した課題を解決する第1の発明は,人物を撮影するカメラと,前記カメラが撮影した映像に含まれる顔画像を検出し,顔画像の検出結果を分析する顔検出結果分析装置とから少なくとも構成される顔検出結果分析システムであって,前記顔検出結果分析装置は,前記カメラが撮影した映像のフレーム毎に顔画像を前記フレームから検出し,前記顔画像に該当する閲覧者の閲覧者IDを付与して,前記フレーム内における前記顔画像の検出枠の位置及び矩形サイズを少なくとも顔検出結果としてログファイルに記憶する顔検出手段と,撮影距離の区分に従い,前記カメラの視野範囲を複数のエリアに分割したエリアマップを記憶し,前記ログファイルに含まれる前記顔画像の検出枠の矩形サイズから撮影距離を少なくとも求めることで,前記閲覧者がいたエリアを前記閲覧者ID毎に特定し,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出した後,前記エリアにいた前記閲覧者の総数をエリアマップ上に表示する表示データを生成する分析手段と,を備えていることを特徴とする顔検出結果分析システムである。   A first invention that solves the above-described problem includes at least a camera that shoots a person, and a face detection result analyzer that detects a face image included in an image captured by the camera and analyzes a detection result of the face image. A face detection result analysis system configured, wherein the face detection result analysis device detects a face image from the frame for each frame of a video photographed by the camera, and a viewer corresponding to the face image A face detection unit that assigns an ID and stores in a log file at least a position and a rectangular size of the detection frame of the face image in the frame as a face detection result, and a plurality of viewing ranges of the camera according to a shooting distance category The area map divided into the areas is stored, and at least the shooting distance is obtained from the rectangular size of the detection frame of the face image included in the log file. Display data for specifying the area where there was a viewer for each browser ID, and calculating the total number of the viewers in the area for each area, and then displaying the total number of the viewers in the area on an area map And a face detection result analysis system characterized by comprising:

カメラからの撮影距離が遠くなる程,閲覧者の顔は小さく撮影されるため,前記顔画像の検出枠の矩形サイズから撮影距離を求めることができ,前記閲覧者のいた前記エリアを特定することができる。前記閲覧者のいた前記エリアが特定できれば,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出することができ,デジタルサイネージや商品などの展示物を閲覧している人物の人数が記載され,該展示物の前にいる人物を撮影するカメラの撮影距離方向に広がったマップを生成することのできるようになる。   Since the viewer's face is photographed as the shooting distance from the camera increases, the shooting distance can be obtained from the rectangular size of the detection frame of the face image, and the area where the viewer is located is specified. Can do. If the area where the viewer was located can be specified, the total number of the viewers who were in the area can be calculated for each area, and the number of persons browsing the exhibits such as digital signage and products is described. , It is possible to generate a map that spreads in the shooting distance direction of the camera that shoots the person in front of the exhibit.

更に,第2の発明は,前記顔検出結果分析装置の前記分析手段は,前記カメラの視点を中心とした円座標系の角度と撮影距離に設定された区分によって,前記カメラの視野範囲を複数のエリアに分割した前記エリアマップを記憶し,前記顔画像の検出枠の中心位置から前記円座標系の角度の区分を特定し,前記顔画像の検出枠の矩形サイズから前記円座標系の撮影距離の区分を特定することで,前記閲覧者がいた前記エリアを前記閲覧者ID毎に特定することを特徴とする第1の発明に記載の顔検出結果分析システムである。   Further, according to a second aspect of the present invention, the analysis means of the face detection result analyzing apparatus sets a plurality of field-of-view ranges of the camera according to a division set to an angle of a circular coordinate system centered on the viewpoint of the camera and a shooting distance. The area map divided into areas of the face image is stored, the angular division of the circular coordinate system is specified from the center position of the detection frame of the face image, and the shooting distance of the circular coordinate system is determined from the rectangular size of the detection frame of the face image The face detection result analysis system according to the first invention is characterized in that the area where the viewer is located is specified for each viewer ID by specifying the category.

撮影距離に着目した場合,前記エリアマップは前記カメラの視点を中心とした円座標系に設定されることが望ましく,前記エリアマップを該円座標系に設定した場合,第2の発明のようにすれば,該エリアマップに含まれる一つの前記エリアを特定できる。   When focusing on the shooting distance, the area map is preferably set in a circular coordinate system centered on the viewpoint of the camera. When the area map is set in the circular coordinate system, the second aspect of the invention can be used. , One area included in the area map can be specified.

更に,第3の発明は,前記顔検出結果分析装置の前記分析手段は,前記閲覧者がいた前記エリアを前記閲覧者ID毎に特定する際に,前記閲覧者がいた前記エリアの頻度を求め,すべての前記閲覧者IDの頻度の合計を前記エリア毎に算出することで,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出することを備えていることを特徴とする第2の発明に記載の顔検出結果分析システムである。   Further, in the third invention, the analysis means of the face detection result analyzing apparatus obtains the frequency of the area where the viewer was present when specifying the area where the viewer was present for each browser ID. And calculating the total number of the viewers in the area for each area by calculating the total frequency of all the viewer IDs for each area. It is a face detection result analysis system described in the invention.

前記エリアにいた前記閲覧者の総数は,前記閲覧者がいた頻度(割合)が考慮されることになる。前記閲覧者がいた頻度が大きい前記エリアは,デジタルサイネージや商品などの展示物を閲覧していた前記エリアと考えられるため,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出する手法として,第3の発明を用いれば,該展示物を閲覧していた前記エリアをより明確にすることができる。   The total number of viewers in the area takes into account the frequency (ratio) of the viewers. The area with a high frequency of the viewer is considered as the area where an exhibit such as a digital signage or a product was browsed. As a method for calculating the total number of the viewers in the area for each area. If the third invention is used, the area where the exhibit has been browsed can be made clearer.

更に,第4の発明は,前記顔検出結果分析装置の前記顔検出手段は,前記閲覧者IDに関連付けて,前記顔画像が検出された前記フレームの撮影日時を前記顔検出結果に含ませ,前記顔検出結果分析装置の前記分析手段は,前記ログファイルに記憶されている前記顔検出結果を日付又は時間帯の区分毎に分類し,日付又は時間帯の区分毎に,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出し,日付又は時間帯の区分毎の前記閲覧者の総数を示す表示データを生成することを特徴とする第3の発明に記載の顔検出結果分析システムである。   Further, in a fourth aspect of the present invention, the face detection means of the face detection result analyzer includes the shooting date and time of the frame in which the face image is detected in the face detection result in association with the viewer ID. The analysis means of the face detection result analyzer categorizes the face detection results stored in the log file for each date or time zone, and is in the area for each date or time zone The face detection result analysis system according to the third aspect of the invention is characterized in that the total number of viewers is calculated for each area, and display data indicating the total number of viewers for each date or time zone is generated. is there.

更に,第5の発明は,前記顔検出結果分析装置の前記分析手段は,前記顔画像が撮影されていた総時間を前記閲覧者ID毎に算出することで,前記顔画像に対応する前記閲覧者が前記カメラの視野範囲内に滞在した滞留時間を算出し,前記ログファイルに記憶されている前記顔検出結果を滞留時間の区分毎に分類し,滞留時間の区分毎に,前記エリアにいた閲覧者の総数を前記エリア毎に算出し,滞留時間の区分毎の前記閲覧者の総数を示す表示データを生成することを特徴とする第3の発明に記載の顔検出結果分析システムである。   Further, in the fifth invention, the analyzing means of the face detection result analyzing apparatus calculates the total time when the face image was photographed for each viewer ID, so that the browsing corresponding to the face image is performed. Calculates the staying time during which the person stays within the field of view of the camera, classifies the face detection results stored in the log file by staying time category, and stays in the area for each staying time category. The face detection result analysis system according to the third aspect of the invention is characterized in that a total number of viewers is calculated for each area, and display data indicating the total number of viewers for each residence time category is generated.

更に,第6の発明は,前記顔検出結果分析装置の前記分析手段は,前記閲覧者IDで識別される前記閲覧者がいたエリアを特定する前に,前記フレーム内における前記顔画像の検出枠の位置及び矩形サイズから前記円座標系における前記閲覧者の座標値を算出し,前後する前記フレームの前記円座標系における前記閲覧者の座標値から前記閲覧者の動線を求め,規定以下の長さの前記動線が所定回数以上連続している場合,前記閲覧者IDで識別される前記閲覧者が前記カメラの視野範囲内に立ち止まりしたと判定し,規定以下の長さの人物の動線が所定回数以上連続している対応する箇所に対応する前記顔検出結果のみを利用して,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出すること特徴とする第3の発明に記載の顔検出結果分析システムである。   Further, the sixth invention is characterized in that the analysis means of the face detection result analysis device is configured to detect the face image detection frame in the frame before specifying the area where the viewer identified by the viewer ID was present. The coordinate value of the viewer in the circular coordinate system is calculated from the position and rectangular size of the frame, and the flow line of the viewer is determined from the coordinate value of the viewer in the circular coordinate system of the frame before and after the frame, If the flow line of length continues for a predetermined number of times or more, it is determined that the viewer identified by the viewer ID has stopped within the field of view of the camera, and the movement of a person having a length less than a specified length is determined. The third invention is characterized in that the total number of the viewers in the area is calculated for each area by using only the face detection result corresponding to the corresponding portion where the line continues for a predetermined number of times or more. Described face detection results It is an analytical system.

第4の発明のように,前記ログファイルに記憶されている前記顔検出結果を日付又は時間帯の区分毎に分類すれば,日付又は時間帯の傾向を示す前記表示データの生成が可能になる。   If the face detection results stored in the log file are classified by date or time zone as in the fourth aspect of the invention, the display data indicating the trend of the date or time zone can be generated. .

更に,第5の発明のように,前記ログファイルに記憶されている前記顔検出結果を滞留時間の区分毎に分類すれば,滞留時間の傾向を示す前記表示データの生成が可能になる。加えて,第6の発明のように,立ち止まりしたと判定した箇所の前記顔検出結果のみを利用することで,閲覧者が立ち止まりしたときの前記表示データの生成が可能になる。   Furthermore, if the face detection results stored in the log file are classified for each residence time category as in the fifth invention, the display data indicating the residence time tendency can be generated. In addition, as in the sixth aspect of the invention, the display data can be generated when the viewer stops by using only the face detection result at the location determined to have stopped.

なお,本発明では,顔検出結果分析装置及び顔検出結果分析装置としてコンピュータを機能させるコンピュータプログラムについても請求する。   In the present invention, a face detection result analyzer and a computer program that causes a computer to function as the face detection result analyzer are also claimed.

このように,本発明は,デジタルサイネージや商品などの展示物を閲覧している人物の人数や位置を表示するマップを生成することのできる顔検出結果分析システム等を提供できる。   As described above, the present invention can provide a face detection result analysis system and the like that can generate a map that displays the number and positions of persons browsing an exhibit such as digital signage and products.

デジタルサイネージシステムの構成を説明する図。The figure explaining the structure of a digital signage system. 広告効果分析装置に備えられたハードウェアを説明する図。The figure explaining the hardware with which the advertising effectiveness analyzer was equipped. 広告効果分析装置の機能ブロック図。The functional block diagram of an advertisement effect analyzer. ログファイルの一例を示した図。The figure which showed an example of the log file. 本実施形態におけるエリアマップを説明する図。The figure explaining the area map in this embodiment. カメラの視野角が等間隔で区分される内容を説明する図。The figure explaining the content by which the viewing angle of a camera is divided by equal intervals. 表示データを生成するまでの手順を示したフロー図。The flowchart which showed the procedure until it produces | generates display data. 個別ログファイルの内容を説明する図。The figure explaining the contents of an individual log file. 角度・距離の区分が追加された個別エリアファイルを説明する図。The figure explaining the individual area file to which the division of angle and distance was added. エリア毎の出現頻度が記憶されたマトリックスデータを説明する図。The figure explaining the matrix data by which the appearance frequency for every area was memorize | stored. 個別頻度ファイルの内容を説明する図。The figure explaining the content of an individual frequency file. 閲覧者人数ファイルの内容を説明する図。The figure explaining the content of the visitor number file. 表示データの第1例を説明する図。The figure explaining the 1st example of display data. 表示データの第2例を説明する図。The figure explaining the 2nd example of display data. 日付や時間体毎の傾向を示す表示データを生成する手順を説明する図。The figure explaining the procedure which produces | generates the display data which show the tendency for every date and time body. 覧時間の傾向を示す表示データを生成する手順を説明する図。The figure explaining the procedure which produces | generates the display data which show the tendency of viewing time. 閲覧者の立ち止まりの傾向を示す表示データを生成する手順を説明する図。The figure explaining the procedure which produces | generates the display data which show the tendency of a viewer's stop.

ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。   From this, the embodiments of the present invention will be described to the extent that those skilled in the art of the present invention can understand the contents of the present invention and implement the present invention.

図1は,顔検出結果分析システム1の構成を説明する図である。図1で図示したように,顔検出結果分析システム1には,街頭や店舗などに設置され,ディスプレイ3aを用いて広告を表示する広告媒体であるデジタルサイネージ3が展示物として設置されている。なお,デジタルサイネージ3には,広告映像を再生するディスプレイ3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。   FIG. 1 is a diagram illustrating the configuration of the face detection result analysis system 1. As shown in FIG. 1, in the face detection result analysis system 1, a digital signage 3 that is installed in a street or a store and displays an advertisement using a display 3a is installed as an exhibit. The digital signage 3 includes a server for controlling the advertising video reproduced by the digital signage 3 in addition to the display 3a for reproducing the advertising video, but this server is not shown in FIG.

デジタルサイネージ3のディスプレイ3aには,ディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定されたビデオカメラ4が設置され,このビデオカメラ4で撮影された映像は,USBポートなどを利用して顔検出結果分析装置2に入力される。   The display 3a of the digital signage 3 is provided with a video camera 4 having an angle set so that the face of a person watching the advertisement image reproduced on the display 3a is shot. The received video is input to the face detection result analyzer 2 using a USB port or the like.

顔検出結果分析システム1の顔検出結果分析装置2は,ビデオカメラ4から送信された映像に含まれるフレームを解析し,ディスプレイ3aで再生されている広告映像を閲覧している人物の顔を検出し,デジタルサイネージ1の閲覧者の数をマップ上に表示する表示データを生成する装置である。   The face detection result analysis device 2 of the face detection result analysis system 1 analyzes a frame included in the video transmitted from the video camera 4 and detects the face of a person who is viewing the advertisement video reproduced on the display 3a. It is a device that generates display data for displaying the number of viewers of the digital signage 1 on a map.

図1で図示した顔検出結果分析システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,顔検出結果分析装置2は,従来技術にはない特徴を備えているため,ここから,顔検出結果分析装置2についてのみ詳細に説明する。   In the apparatus constituting the face detection result analysis system 1 shown in FIG. 1, a commercially available apparatus can be used for the digital signage 3 and the video camera 4, but the face detection result analysis apparatus 2 has features that are not found in the prior art. Therefore, only the face detection result analyzer 2 will be described in detail from here.

図2は,顔検出結果分析装置2に備えられたハードウェアを説明する図で,図3は,顔検出結果分析装置2の機能ブロック図である。   FIG. 2 is a diagram for explaining hardware provided in the face detection result analysis apparatus 2, and FIG. 3 is a functional block diagram of the face detection result analysis apparatus 2.

顔検出結果分析装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを顔検出結果分析装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。   The face detection result analyzer 2 can be realized by using a general-purpose computer, and the face detection result analyzer 2 includes hardware similar to that of the general-purpose computer. In FIG. 2, as the hardware, a CPU 2a (CPU : Central Processing Unit (ROM), ROM 2b (ROM: Read-Only Memory) on which BIOS is mounted, RAM 2c (RAM: Random Access Memory) which is the main memory of the computer, and a large-capacity data storage device 2d as an external storage device (For example, a hard disk), an input / output interface 2e for data communication with an external device, a network interface 2f for network communication, a display device 2g (for example, a liquid crystal display), and a character input device 2h (for example, a keyboard) ) And pointing device 2i (for example, a mouse) It is mounting.

顔検出結果分析装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,顔検出結果分析装置2には図3で図示した手段が備えられる。   A computer program for operating the CPU 2a is installed in the data storage device 2d of the face detection result analysis device 2, and the face detection result analysis device 2 is provided with the means shown in FIG. 3 by this computer program.

図3で図示したように,顔検出結果分析装置2には,ビデオカメラ4が撮影した映像のフレームから,両眼が撮影されている顔画像をフレームから検出する顔検出手段20と,ビデオカメラ4の視野範囲を複数のエリアに分割したエリアマップを記憶し,顔画像の検出枠の位置及び矩形サイズを利用して,閲覧者がいたエリアを閲覧者ID毎に特定し,エリアにいた閲覧者の総数をエリア毎に算出する分析手段21とを備えている。   As shown in FIG. 3, the face detection result analyzing apparatus 2 includes a face detection unit 20 for detecting a face image in which both eyes are photographed from a frame of a video photographed by the video camera 4, and a video camera. An area map in which the field of view of 4 is divided into a plurality of areas is stored, and the area where the viewer is located is identified for each viewer ID using the position of the face image detection frame and the rectangular size. The analysis means 21 which calculates the total number of every area is provided.

顔検出結果分析装置2の顔検出手段20は,例えば,学習アルゴリズムにより白黒の複数のHaarパターンを組み合わせて顔画像を検出する技術を用いて,ビデオカメラ4が撮影した映像のフレーム毎に,両眼が撮影されている顔画像をフレームから検出し,フレームから検出した顔画像に該当する閲覧者の閲覧者IDを付与し,フレーム内における顔画像の検出枠の位置(ここでは,左上隅の座標)及び矩形サイズを少なくとも含む顔検出結果を,データ記憶装置2dに生成されたログファイルに記憶する   The face detection means 20 of the face detection result analysis apparatus 2 uses, for example, a technique for detecting a face image by combining a plurality of black and white Haar patterns using a learning algorithm, for each frame of video captured by the video camera 4. The face image in which the eye is photographed is detected from the frame, the viewer ID of the corresponding viewer is assigned to the face image detected from the frame, and the position of the detection frame of the face image in the frame (here, the upper left corner) The face detection result including at least the coordinates) and the rectangular size is stored in the log file generated in the data storage device 2d.

デジタルサイネージ3のディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにビデオカメラ4のアングルが設定されているため,ビデオカメラ4が撮影した映像から検出された顔画像は,デジタルサイネージを閲覧している人物(閲覧者)の顔として取り扱うことができる。   Since the angle of the video camera 4 is set so that the face of the person watching the advertisement video reproduced on the display 3a of the digital signage 3 is shot, the face detected from the video shot by the video camera 4 The image can be handled as the face of a person (browser) who is browsing digital signage.

また,顔検出結果分析装置2の顔検出手段20は,フレームから検出した顔画像との特徴量(例えば,SURF特徴量)を記憶しておき,今回のフレームから検出した顔画像の特徴量と比較することで,今回のフレームから検出した顔画像が,これより前のフレームから検出されていないか確認し,これより前のフレームから検出した顔画像の特徴量とほぼ同一である特徴量の顔画像を今回のフレームから検出した場合、これより前のフレームに撮影された該顔画像に付与した閲覧者IDを今回のフレームから検出した該顔画像の顔検出結果に付与する。   Further, the face detection means 20 of the face detection result analysis apparatus 2 stores a feature amount (for example, SURF feature amount) with the face image detected from the frame, and the feature amount of the face image detected from the current frame By comparing, it is confirmed that the face image detected from the current frame is not detected from the previous frame, and the feature value of the face image detected from the previous frame is almost the same as the feature value of the face image detected from the previous frame. When the face image is detected from the current frame, the viewer ID assigned to the face image taken in the previous frame is assigned to the face detection result of the face image detected from the current frame.

図4は,顔検出結果分析装置2の顔検出手段20が生成するログファイルの一例を示した図である。図4で図示したログファイルには,閲覧者ID、ビデオカメラ4で撮影された映像のフレームが撮影された日時,フレーム上における顔画像の検出枠の左上隅みのX座標及びY座標,顔画像の検出枠のX軸方向及びY軸方向のサイズをそれぞれ記憶するカラムが設けられ,顔検出結果分析装置2の顔検出手段20は、ビデオカメラ4で撮影された映像のフレームから顔画像を検出する毎に,該顔画像の検出枠に対応するレコードをログファイルに追加する。   FIG. 4 is a diagram illustrating an example of a log file generated by the face detection unit 20 of the face detection result analysis apparatus 2. The log file shown in FIG. 4 includes the viewer ID, the date and time when the frame of the video shot by the video camera 4 was shot, the X and Y coordinates of the upper left corner of the face image detection frame on the frame, the face Columns are provided for storing the sizes of the image detection frames in the X-axis direction and the Y-axis direction, respectively. Each time it is detected, a record corresponding to the detection frame of the face image is added to the log file.

顔検出結果分析装置2の分析手段21は,ビデオカメラ4の視野範囲を複数のエリアに分割したエリアマップを記憶し,所定のアルゴリズムに従い,顔画像の検出枠の位置及び矩形サイズから閲覧者がいたエリアを閲覧者ID毎に特定し,エリアにいた閲覧者の総数をエリア毎に算出し、デジタルサイネージの閲覧者の人数をマップ上に表示する表示データを生成する手段である。   The analysis means 21 of the face detection result analysis device 2 stores an area map obtained by dividing the visual field range of the video camera 4 into a plurality of areas, and a viewer is present from the position of the detection frame and the rectangular size of the face image according to a predetermined algorithm. An area is specified for each browser ID, the total number of viewers in the area is calculated for each area, and display data for displaying the number of digital signage viewers on the map is generated.

顔検出結果分析装置2の分析手段21は,デジタルサイネージ3の閲覧者の人数を集計するために,予め,ビデオカメラ4の視点を中心とした円座標系の角度と撮影距離に設定された区分によって,ビデオカメラ4の視野範囲を複数のエリアに分割したエリアマップを記憶し、エリアマップに含まれるエリア毎に閲覧者の人数を算出する。   The analysis means 21 of the face detection result analyzer 2 is a classification set in advance in the angle and shooting distance of a circular coordinate system centered on the viewpoint of the video camera 4 in order to count the number of viewers of the digital signage 3. Thus, an area map obtained by dividing the visual field range of the video camera 4 into a plurality of areas is stored, and the number of viewers is calculated for each area included in the area map.

図5は,本実施形態におけるエリアマップを説明する図である。本実施形態では,エリアマップは,ビデオカメラ4の視点4aを中心とした円座標系に設定され,図5に図示したように,エリアマップの角度の範囲はビデオカメラ4の視野角4bで,ビデオカメラ4の視野角4bはθ1〜θ10の10個に等間隔で区分され,更に,ビデオカメラ4の視野からの撮影距離はr1〜r7の7個に区分され,一つのエリアは,角度及び撮影距離の区分の組み合わせで表現できる。   FIG. 5 is a diagram for explaining an area map in the present embodiment. In the present embodiment, the area map is set in a circular coordinate system centered on the viewpoint 4a of the video camera 4, and as shown in FIG. 5, the range of the angle of the area map is the viewing angle 4b of the video camera 4, and the video camera The viewing angle 4b of 4 is divided into 10 of θ1 to θ10 at equal intervals, and the shooting distance from the field of view of the video camera 4 is divided into 7 of r1 to r7, and one area has an angle and a shooting distance. It can be expressed as a combination of categories.

図6は,ビデオカメラ4の視野角が等間隔で区分される内容を説明する図である。図6に図示しているように,ビデオカメラ4の視野角4bを10個に等間隔で区分することは,映像のフレーム4cにおいては,フレーム4cのX軸方向を10個に等間隔で区分していることになり,顔検出結果から得られる顔画像の検出枠の中心座標のX軸の値から,顔画像の検出枠が属する角度の区分を特定できるため,分析手段21には,ビデオカメラ4の視野角4bの区分に対応するX軸方向の画素数の範囲が記憶されている。   FIG. 6 is a diagram for explaining the contents in which the viewing angles of the video camera 4 are divided at equal intervals. As shown in FIG. 6, dividing the viewing angle 4b of the video camera 4 into 10 equal intervals means that in the video frame 4c, the X axis direction of the frame 4c is divided into 10 equally spaced intervals. Since the angle classification to which the face image detection frame belongs can be specified from the X-axis value of the center coordinate of the face image detection frame obtained from the face detection result, the analysis means 21 has a video. A range of the number of pixels in the X-axis direction corresponding to the section of the viewing angle 4b of the camera 4 is stored.

表1に,ビデオカメラ4の視野角4bの区分に対応するX軸方向の画素数の範囲の一例を示しておく。

Figure 2011060026
Table 1 shows an example of the range of the number of pixels in the X-axis direction corresponding to the segment of the viewing angle 4b of the video camera 4.
Figure 2011060026

表2は,本実施形態における撮影距離の区分を示した表である。視野範囲における距離の区分は等間隔でなく,表2では,デジタルサイネージ3を閲覧するのに適切と思われる距離間を細かく区分し,更に,ビデオカメラ4の撮影距離は無限遠方まで考えられるため,4.0m以上を一つの区分としている。

Figure 2011060026
Table 2 is a table showing the shooting distance categories in the present embodiment. The distances in the field of view range are not equally spaced. In Table 2, the distances that are considered appropriate for viewing the digital signage 3 are finely divided, and the shooting distance of the video camera 4 can be considered to be infinitely far. , 4.0m or more is defined as one division.
Figure 2011060026

ビデオカメラ4の視点から遠ざかるに連れて顔は小さく撮影されるため,本実施形態において,撮影距離の区分には,平均サイズの顔が撮影されたときの顔画像の検出枠の矩形サイズの範囲が対応付けられて分析手段21に記憶されている。   Since the face is photographed smaller as it moves away from the viewpoint of the video camera 4, in this embodiment, the photographing distance is classified into a rectangular size range of the detection frame of the face image when the average size face is photographed. Are stored in the analyzing means 21 in association with each other.

表3は,本実施形態における撮影距離の区分と顔画像の検出枠の矩形サイズ(X軸方向のサイズ)の範囲を示す。なお,平均サイズの顔が撮影された時の顔画像の検出枠の矩形サイズは,数式1で求めることができ,顔画像の検出枠の矩形サイズは画素数(pixel)である。

Figure 2011060026
Figure 2011060026
Table 3 shows the range of the photographing distance classification and the rectangular size (size in the X-axis direction) of the detection frame of the face image in the present embodiment. Note that the rectangular size of the detection frame of the face image when the average size face is photographed can be obtained by Equation 1, and the rectangular size of the detection frame of the face image is the number of pixels.
Figure 2011060026
Figure 2011060026

ここから、顔検出結果分析装置2の分析手段21の一連の動作について説明する。図7は,顔検出結果分析装置2の分析手段21が表示データを生成するまでの手順を示したフロー図である。顔検出結果分析装置2の分析手段21は,顔検出結果分析装置2の分析手段21が表示データを生成するとき,まず,顔検出手段20が生成したログファイルに含まれる閲覧者ID毎に繰り返し実行するループ処理L1を実行する。   From here, a series of operation | movement of the analysis means 21 of the face detection result analyzer 2 is demonstrated. FIG. 7 is a flowchart showing a procedure until the analysis unit 21 of the face detection result analysis apparatus 2 generates display data. When the analysis means 21 of the face detection result analysis apparatus 2 generates display data, the analysis means 21 of the face detection result analysis apparatus 2 first repeats for each viewer ID included in the log file generated by the face detection means 20. The loop process L1 to be executed is executed.

このループ処理において,まず,顔検出結果分析装置2の分析手段21は,ループ処理L1の対象となる閲覧者IDが含まれるレコードを抽出し,該レコードを時系列にソートすることで,ループ処理L1の対象となる閲覧者IDが含まれるレコードのみで構成される個別ログファイルを生成する(S1)。   In this loop process, first, the analysis means 21 of the face detection result analyzer 2 extracts a record including a viewer ID that is a target of the loop process L1, and sorts the records in time series, thereby performing the loop process. An individual log file composed only of records including the viewer ID targeted for L1 is generated (S1).

図8は,ループ処理の対象となる閲覧者IDが含まれるレコードのみで構成される個別ログファイルの内容を説明する図で,図8では,閲覧者IDが「H00001」の個別ログファイルを例示し,図8の個別ログファイルに含まれるレコードの閲覧者IDは全て「H00001」である。   FIG. 8 is a diagram for explaining the contents of an individual log file composed only of records including a browser ID to be loop-processed. FIG. 8 illustrates an individual log file with a viewer ID “H00001”. The viewer IDs of the records included in the individual log file in FIG. 8 are all “H00001”.

ループ処理L1の対象となる閲覧者IDが含まれるレコードのみで構成される個別ログファイルを生成すると,顔検出結果分析装置2の分析手段21は,個別ログファイルに含まれるレコード毎に,レコードに含まれる顔画像の検出枠の位置及び矩形サイズから,エリアマップに含まれる一つのエリアを特定し,特定したエリアに対応する角度及び撮影距離の区分を個別ログファイルに追加した個別エリアファイルを生成する処理を実行する(S2)。   When the individual log file composed only of the records including the viewer ID that is the target of the loop processing L1 is generated, the analysis unit 21 of the face detection result analyzer 2 records each record included in the individual log file. A single area included in the area map is identified from the position of the face image detection frame and the rectangle size included, and an individual area file is generated by adding the angle and shooting distance classification corresponding to the identified area to the individual log file. Processing is executed (S2).

エリアに対応する角度の区分は,顔画像の検出枠の位置及び矩形サイズから顔画像の検出枠の中心座標を求め,角度の区分を示した表を参照し,顔画像の検出枠の中心座標(ここでは,X軸の座標値)が含まれる角度の区分になる。また,距離の区分は,撮影距離の区分を示した表を参照し,顔画像の検出枠の矩形サイズのX軸方向のサイズが含まれる区分になる。   The angle classification corresponding to the area is obtained by obtaining the center coordinates of the detection frame of the face image from the position of the detection frame of the face image and the rectangular size, and referring to the table showing the angle classification, This is a section of angles including (here, the coordinate value of the X axis). Further, the distance category is a category including the X-axis direction size of the rectangular size of the detection frame of the face image with reference to a table showing the shooting distance category.

図9は,角度・距離の区分が追加された個別エリアファイルを説明する図である。図9で図示した個別エリアファイルは,図8で図示した個別ログファイルに,角度・距離の区分が追加されたファイルで,図9で図示した個別エリアファイルにおいては,図8で図示した個別ログファイルに含まれるレコード毎に,レコードの顔画像の検出枠の位置及び矩形サイズから決定された角度・距離の区分が追加されている。   FIG. 9 is a diagram for explaining the individual area file to which the angle / distance classification is added. The individual area file illustrated in FIG. 9 is a file in which the angle / distance classification is added to the individual log file illustrated in FIG. 8. In the individual area file illustrated in FIG. 9, the individual log illustrated in FIG. For each record included in the file, an angle / distance segment determined from the position of the detection frame of the face image of the record and the rectangular size is added.

顔検出結果分析装置2の分析手段21は,ループ処理L1の対象となる閲覧者IDの個別エリアファイルを生成すると,ループ処理L1の対象となる閲覧者IDの個別エリアファイルにおけるエリアの出現回数を記したマトリックスデータを生成する(S3)。   When the analysis unit 21 of the face detection result analysis apparatus 2 generates the individual area file of the browser ID that is the target of the loop process L1, the analysis unit 21 calculates the number of appearances of the area in the individual area file of the viewer ID that is the target of the loop process L1. The described matrix data is generated (S3).

図10は,エリア毎の出現頻度が記憶されたマトリックスデータを説明する図で,図10で図示したマトリックスデータのカラムは角度の区分,ロウは撮影距離の区分で,図9で図示した個別エリアファイルのレコード毎に,該レコードの角度・撮影距離の区分で特定されるマトリックスデータの要素値を「1」だけ加算することで生成される。   FIG. 10 is a diagram for explaining the matrix data in which the appearance frequency for each area is stored. The column of the matrix data shown in FIG. 10 is the angle section, the row is the shooting distance section, and the individual area shown in FIG. For each record in the file, it is generated by adding “1” to the element value of the matrix data specified by the angle / shooting distance classification of the record.

例えば,図10で図示した個別エリアファイルの最初のレコードにおいて,角度の区分は「θ5」で,撮影距離の区分は「r5」であるため,角度の区分が「θ5」で,撮影距離の区分が「r5」であるマトリックスデータの要素値に「1」が加算される。   For example, in the first record of the individual area file shown in FIG. 10, the angle classification is “θ5” and the shooting distance classification is “r5”, so the angle classification is “θ5” and the shooting distance classification. “1” is added to the element value of the matrix data having “r5”.

顔検出結果分析装置2の分析手段21は,ループ処理の対象となる閲覧者IDの個別エリアファイルにおけるエリアの出現回数を記したマトリックスデータを生成すると,該マトリックスデータに含まれる出現回数を,該閲覧者IDの個別エリアファイルに含まれるレコードの総数で除算することで,ループ処理L1の対象となる閲覧者IDの個別エリアファイルにおけるエリアの頻度(単位はパーセント)を算出し,ループ処理L1の対象となる閲覧者IDの個別エリアファイルにおけるエリアの頻度が記述されたマトリックスデータから個別頻度ファイルを生成し,ループ処理L1の対象となる閲覧者IDを付与してデータ記憶装置2dに記憶する(S4)。   When the analysis means 21 of the face detection result analysis apparatus 2 generates matrix data describing the number of appearances of the area in the individual area file of the viewer ID that is the target of the loop processing, the number of appearances included in the matrix data is calculated as the number of appearances. By dividing by the total number of records included in the individual area file of the viewer ID, the frequency (unit: percentage) of the area in the individual area file of the viewer ID subject to the loop processing L1 is calculated, and the loop processing L1 An individual frequency file is generated from matrix data in which the frequency of the area in the individual area file of the target viewer ID is described, and a target viewer ID for loop processing L1 is assigned and stored in the data storage device 2d ( S4).

図11は,個別頻度ファイルの内容を説明する図である。図11で図示した個別頻度ファイルの各フィールドの値は,図10で図示したマトリックスデータの各要素値を,ループ処理L1の対象となる閲覧者IDの個別エリアファイルに含まれるレコードの数(ここでは,10)で除算することで生成される。   FIG. 11 is a diagram for explaining the contents of the individual frequency file. The value of each field of the individual frequency file shown in FIG. 11 is the number of records contained in the individual area file of the viewer ID that is the object of the loop processing L1. Then, it is generated by dividing by 10).

例えば,図10において,横方向の区分が「θ3」で,距離方向の区分が「r4」のフィールドの値は「3」であるため,ループ処理L1の対象となる閲覧者IDが含まれるレコードの数で除算することで,図11において,角度の区分が「θ3」で,撮影距離の区分が「r4」のフィールドの頻度は「0.3」になる。   For example, in FIG. 10, since the value of the field of “θ3” in the horizontal direction and “r4” in the distance direction is “3”, the record including the viewer ID that is the target of the loop process L1 11, the frequency of the field in which the angle division is “θ3” and the shooting distance division is “r4” in FIG. 11 is “0.3”.

個別頻度ファイルに含まれる頻度は,ループ処理L1の対象となる閲覧者IDの個別エリアファイルに含まれるレコードの数で除算することで求められるため,個別頻度ファイルに含まれる頻度の合計は「1」になる。   Since the frequency included in the individual frequency file is obtained by dividing by the number of records included in the individual area file of the viewer ID that is the target of the loop process L1, the total frequency included in the individual frequency file is “1”. "become.

顔検出結果分析装置2の分析手段21は,エリアファイルに含まれる閲覧者IDすべてについてループ処理L1を実行し,閲覧者ID毎の個別頻度ファイルを生成すると,エリアマップに含まれるエリア毎に,エリアに対応する個別頻度ファイルの頻度の合計値を算出することで,エリアにいた閲覧者の総数をエリア毎に求め,閲覧者の総数がエリア毎に記述された閲覧者人数ファイルを生成する(S5)。   The analysis means 21 of the face detection result analysis apparatus 2 executes the loop process L1 for all the viewer IDs included in the area file and generates an individual frequency file for each viewer ID, for each area included in the area map. By calculating the total frequency of the individual frequency files corresponding to, the total number of viewers in the area is obtained for each area, and a viewer number file in which the total number of viewers is described for each area is generated (S5). ).

図12は,閲覧者人数ファイルの内容を説明する図である。上述しているように,一人の閲覧者において,個別頻度ファイルに含まれる頻度の合計は必ず「1.0」になり,頻度の値「1.0」は一人の人数を示すことになるため,エリアマップに含まれるエリア毎に,エリアに対応する個別頻度ファイルの頻度の合計値を算出することで,エリアにいた閲覧者の総数を求めることができる。   FIG. 12 is a diagram for explaining the contents of the browser number file. As described above, for a single viewer, the sum of the frequencies included in the individual frequency file is always “1.0”, and the frequency value “1.0” indicates the number of people. For each area included in the area map, by calculating the total value of the frequencies of the individual frequency files corresponding to the area, the total number of viewers in the area can be obtained.

例えば,図12において,角度の区分が「θ5」で,撮影距離の区分が「r5」のフィールドの値は「147.0」であるため,角度の区分が「θ5」で,撮影距離の区分が「r5」で特定されるエリアにいた閲覧者の総数は147.0人となる。   For example, in FIG. 12, since the field value of the angle section “θ5” and the shooting distance section “r5” is “147.0”, the angle section is “θ5” and the shooting distance section. The total number of viewers in the area identified by “r5” is 147.0.

顔検出結果分析装置2の分析手段21は,閲覧者の総数がエリア毎に記述された閲覧者人数ファイルを生成すると,閲覧者人数ファイルに記載されている閲覧者の総数をエリアマップ上に可視化して表示する表示データを生成し,この手順を終了する。   When the analyzing means 21 of the face detection result analyzing apparatus 2 generates a viewer number file in which the total number of viewers is described for each area, the total number of viewers described in the viewer number file is visualized on an area map. Display data to be displayed, and this procedure is terminated.

図13は,顔検出結果分析装置2の分析手段21が生成する表示データの第1例を説明する図である。図13では,閲覧者人数ファイルのフィールドの値,すなわち,エリアにいた閲覧者の総数に応じた色で,エリアマップの各エリアが塗りつぶされて表示される。   FIG. 13 is a diagram illustrating a first example of display data generated by the analysis unit 21 of the face detection result analysis apparatus 2. In FIG. 13, each area of the area map is displayed with a color corresponding to the value of the field of the number-of-viewers file, that is, the total number of viewers in the area.

例えば,図13で示している区分Aに該当するエリアを塗りつぶす色を赤色,区分Bに該当するエリアを塗りつぶす色を橙色,区分Cに該当するエリアを塗りつぶす色を黄色,区分Dに該当するエリアを塗りつぶす色を緑色,区分Dに該当するエリアを塗りつぶす色を青色にし,エリアマップの各エリアにいた人数が分かり易く表示される。   For example, the color that fills the area corresponding to section A shown in FIG. 13 is red, the color that fills the area corresponding to section B is orange, the color that fills the area corresponding to section C is yellow, and the area that corresponds to section D The color that fills the area is green, the color that fills the area corresponding to the section D is blue, and the number of people in each area of the area map is displayed in an easy-to-understand manner.

図14は,顔検出結果分析装置2の分析手段21が生成する表示データの第2例を説明するである。図14では,閲覧者人数ファイルの各フィールドの値,すなわち,エリアにいた閲覧者の総数に応じた高さの棒グラフが,エリアマップの各エリアに表示されている。   FIG. 14 is a diagram illustrating a second example of display data generated by the analysis unit 21 of the face detection result analysis apparatus 2. In FIG. 14, the value of each field of the viewer number file, that is, a bar graph having a height corresponding to the total number of viewers in the area is displayed in each area of the area map.

このように,ビデオカメラ4からの撮影距離が遠くなる程,閲覧者の顔は小さく撮影されるため,顔画像の検出枠の矩形サイズから撮影距離を求めることができ,閲覧者がいたエリアを特定することができる。閲覧者がいた前記エリアが特定できれば,エリアにいた閲覧者の総数をエリア毎に算出することができ,デジタルサイネージを閲覧している人物の人数が記載され,デジタルサイネージの前にいる人物を撮影するビデオカメラ4の撮影距離方向に広がったマップを生成することのできるようになる。   In this way, as the shooting distance from the video camera 4 increases, the viewer's face is shot smaller, so the shooting distance can be obtained from the rectangular size of the detection frame of the face image, and the area where the viewer was located Can be identified. If the area where the viewer was located can be identified, the total number of viewers in the area can be calculated for each area, the number of people browsing the digital signage is described, and the person in front of the digital signage is photographed It is possible to generate a map that spreads in the shooting distance direction of the video camera 4.

本発明では、顔検出結果分析装置2の分析手段21のアルゴリズムを変更することで,顔検出結果分析装置2の分析手段21が生成する表示データが持つ意味を変更することが可能になる。   In the present invention, the meaning of the display data generated by the analysis means 21 of the face detection result analysis device 2 can be changed by changing the algorithm of the analysis means 21 of the face detection result analysis device 2.

例えば,1日や所定間隔(例えば,1時間毎)など日付・時刻に係わる区分毎に閲覧者人数ファイルを生成するアルゴリズムに変更すると,日付や時間帯毎の傾向を示す表示データを生成することができるようになる。   For example, if you change to an algorithm that generates a number of viewers file for each date and time category, such as one day or a predetermined interval (for example, every hour), display data that shows trends for each date or time zone is generated. Will be able to.

図15は,日付や時間体毎の傾向を示す表示データを生成する手順を説明する図である。日付や時間体毎の傾向を示す表示データを生成するとき,図7のS1において,顔検出結果分析装置2の分析手段21は,ループ処理L1の対象となる閲覧者IDが含まれるログファイルのレコードの日時を参照して,日付や時間帯毎に係わる区分に従い該レコードを分類し,日付や時間帯毎に係わる区分を属性値として持つ個別ログファイルを日付や時間帯毎に係わる区分毎に生成する。   FIG. 15 is a diagram illustrating a procedure for generating display data indicating a trend for each date and time body. When generating display data indicating a trend for each date and time body, in S1 of FIG. 7, the analysis means 21 of the face detection result analysis apparatus 2 creates a log file including a viewer ID that is a target of the loop processing L1. Referring to the date and time of the record, classify the record according to the category for each date and time zone, and create an individual log file with the category for each date and time zone as an attribute value for each category for each date and time zone Generate.

図15では,日付や時間帯毎に係わる区分を曜日とし,曜日を属性値として持つ個別ログファイルとして,曜日の属性値が月曜から日曜までの7つの個別ログファイルが生成される。なお,図15では,日付や時間帯毎に係わる区分を曜日にしているが,日付や時間帯毎に係わる区分は日付や時間帯であっても構わない。   In FIG. 15, seven individual log files with the attribute value of the day of the week from Monday to Sunday are generated as individual log files having a day and a day as the attribute value for each date and time zone. In FIG. 15, the category related to each date or time zone is set to day of the week, but the category related to each date or time zone may be a date or time zone.

そして,顔検出結果分析装置2の分析手段21は,日付や時間帯毎に係わる区分を属性値としてもつ個別ログファイルを生成すると,該個別ログファイル毎に図7のS1以降の手順を実行し,日付や時間帯毎に係わる区分を属性値にもつ個別頻度ファイルを生成し,日付や時間帯毎に係わる区分毎に個別頻度ファイルに含まれる頻度を集計し,日付や時間帯毎に係わる区分毎に閲覧者人数ファイルを生成し,日付や時間帯の傾向を示す表示データを生成する。   Then, when the analysis means 21 of the face detection result analysis apparatus 2 generates an individual log file having the attribute value for each date and time zone, the procedure after S1 in FIG. 7 is executed for each individual log file. , Generate an individual frequency file with attributes related to date and time zone as attribute values, aggregate the frequencies contained in the individual frequency file for each category related to date and time zone, and classify for each date and time zone A viewer number file is generated every time, and display data indicating a trend of date and time zone is generated.

日付や時間帯の傾向を示す表示データは,日付や時間帯に係わる区分毎に図13及び図14のような表示データを生成してもよく,また,日付や時間帯に係わる区分毎の閲覧人数の割合を示す棒グラフをエリアマップに表示させてもよい。   Display data indicating the trend of the date and time zone may be generated as shown in FIG. 13 and FIG. 14 for each category related to the date and time zone, and browsing for each category related to the date and time zone. You may display the bar graph which shows the ratio of the number of people on an area map.

更に,顔検出結果分析装置2の分析手段21のアルゴリズムを,閲覧時間に係わる区分毎に閲覧者人数ファイルを生成するアルゴリズムに変更すると,閲覧時間の傾向を示す表示データを生成することができるようになる。   Furthermore, if the algorithm of the analysis means 21 of the face detection result analysis apparatus 2 is changed to an algorithm that generates a viewer number file for each category related to browsing time, display data indicating a tendency of browsing time can be generated. become.

図16は,閲覧時間の傾向を示す表示データを生成する手順を説明する図である。顔検出結果分析装置2の分析手段21は,閲覧時間の傾向を示す表示データを生成するとき,図7のS1において,個別ログファイルを生成するときに,ループ処理の対象となる閲覧者IDで識別される閲覧者の閲覧時間を求め,閲覧者の区分を属性値として個別ログファイルに付与する。   FIG. 16 is a diagram for explaining a procedure for generating display data indicating a tendency of browsing time. The analysis means 21 of the face detection result analysis apparatus 2 generates the display data indicating the tendency of the browsing time. When the individual log file is generated in S1 of FIG. The browsing time of the identified viewer is obtained, and the category of the viewer is assigned to the individual log file as an attribute value.

閲覧者IDで識別される閲覧者がデジタルサイネージを閲覧していた閲覧時間は,個別ログファイルの内容から算出できる。例えば,個別ログファイルの最初と最後のレコードに含まれる日時の差から,閲覧者IDで識別される一人の閲覧者がデジタルサイネージを閲覧していた閲覧時間を算出することができる。   The browsing time during which the browser identified by the browser ID was browsing the digital signage can be calculated from the contents of the individual log file. For example, it is possible to calculate the viewing time during which a single viewer identified by the viewer ID was browsing the digital signage from the difference in date and time included in the first and last records of the individual log file.

そして,顔検出結果分析装置2の分析手段21は,閲覧時間の区分を属性値に持つ個別ログファイルを生成すると,閲覧時間の区分を属性値に持つ個別頻度ファイルを生成し,同じ属性値を持つ個別頻度ファイルを集計することで,閲覧時間の区分毎の閲覧人数ファイルを生成する。   Then, when the analysis unit 21 of the face detection result analysis apparatus 2 generates the individual log file having the browsing time category as the attribute value, the analysis unit 21 generates the individual frequency file having the browsing time category as the attribute value. By counting the individual frequency files you have, you generate a browsing file for each browsing time category.

閲覧時間の傾向を示す表示データは,閲覧時間に係わる区分毎に図13及び図14のような表示データを生成してもよく,また,閲覧時間に係わる区分毎の閲覧人数の割合を示す棒グラフをエリアマップに表示させてもよい。   Display data indicating the trend of browsing time may be generated as shown in FIG. 13 and FIG. 14 for each category related to browsing time, and a bar graph showing the ratio of the number of viewers for each category related to browsing time May be displayed on the area map.

また,顔検出結果分析装置2の分析手段21のアルゴリズムを,円座標系における閲覧者の座標を算出し閲覧者の移動速度を求め,閲覧者の立ち止まりを判定するアルゴリズムに変更すると,閲覧者の立ち止まりの傾向を示す表示データを生成することができるようになる。   If the algorithm of the analysis means 21 of the face detection result analyzer 2 is changed to an algorithm for calculating the viewer's coordinates in the circular coordinate system to determine the viewer's moving speed and determining the viewer's stoppage, Display data indicating the tendency to stop can be generated.

図17は,閲覧者の立ち止まりの傾向を示す表示データを生成する手順を説明する図である。閲覧者の立ち止まりの傾向を示す表示データを生成するとき,顔検出結果分析装置2の分析手段21は,図7のS1において個別ログファイルを生成すると,個別ログファイルに含まれるレコード毎に,顔画像の検出枠の位置及び矩形サイズを利用して,円座標系における座標値を演算し,円座標系における座標値を個別ログファイルに含まれるレコードに付与する。   FIG. 17 is a diagram for explaining a procedure for generating display data indicating a tendency of a viewer to stop. When generating the display data indicating the tendency of the viewer to stop, the analysis means 21 of the face detection result analysis apparatus 2 generates an individual log file in S1 of FIG. 7, and for each record included in the individual log file, Using the position of the detection frame of the image and the rectangular size, the coordinate value in the circular coordinate system is calculated, and the coordinate value in the circular coordinate system is assigned to the record included in the individual log file.

円座標系における角度は,映像のフレームのX軸上における顔画像の検出枠の中心座標の位置と,ビデオカメラ4の視野角とから算出できる。また,円座標系における撮影距離は数式1から算出できる。   The angle in the circular coordinate system can be calculated from the position of the center coordinate of the detection frame of the face image on the X axis of the video frame and the viewing angle of the video camera 4. The shooting distance in the circular coordinate system can be calculated from Equation 1.

個別ログファイルに含まれるレコード毎に円座標系における座標値を付与すると,顔検出結果分析装置2の分析手段21は,該個別ログファイルの2番目以下のレコードについて,該レコードの位置に閲覧者が移動したときの移動速度を求め,移動速度をレコードに付与する。   When a coordinate value in the circular coordinate system is assigned to each record included in the individual log file, the analysis means 21 of the face detection result analysis apparatus 2 reads the viewer at the position of the second or lower record of the individual log file. The movement speed when moving is obtained, and the movement speed is assigned to the record.

なお,閲覧者の移動速度は,閲覧者の移動距離を移動時間で除算することで算出できる。閲覧者の移動距離及び移動時間は数式2から求められる。

Figure 2011060026
Note that the moving speed of the viewer can be calculated by dividing the moving distance of the viewer by the moving time. The movement distance and movement time of the viewer can be obtained from Equation 2.
Figure 2011060026

顔検出結果分析装置2の分析手段21は,閲覧者の移動速度を求めると,閲覧者の移動速度が所定速度以下であるレコードが連続している数をカウントし,該数が所定回数以上ある場合,この個別ログファイルに対応する閲覧者は立ち止まりしたと判定し,閲覧者の移動速度が所定速度以下であるレコードが連続している箇所に対応するレコードを抜き出して,閲覧者が立ち止まりしたときの個別ログファイルを生成する。   When the analyzing means 21 of the face detection result analyzing apparatus 2 calculates the moving speed of the viewer, the analyzing means 21 counts the number of consecutive records whose moving speed of the viewer is equal to or less than a predetermined speed, and the number is equal to or more than a predetermined number of times. In this case, it is determined that the viewer corresponding to this individual log file has stopped, the record corresponding to the place where the records where the viewer's moving speed is below the predetermined speed is extracted, and the viewer stops. Generate individual log files.

そして,顔検出結果分析装置2の分析手段21は,閲覧者が立ち止まりしたときの個別ログファイルを利用して個別頻度ファイルを生成した後,閲覧者が立ち止まりしたときの閲覧者人数ファイルを生成し,閲覧者が立ち止まりしたときの傾向を示す表示データを生成する。   Then, the analysis means 21 of the face detection result analyzer 2 generates an individual frequency file using the individual log file when the viewer stops, and then generates a viewer number file when the viewer stops. , Display data indicating a tendency when the viewer stops.

なお,閲覧者が立ち止まりしたときの傾向を示す表示データは,図13及び図14のような表示データを生成すればよい。   In addition, what is necessary is just to produce | generate display data like FIG.13 and FIG.14 as the display data which shows the tendency when a viewer stops.

以上、デジタルサイネージのディスプレイに注目する人物をターゲットとした実施形態を説明したが、本願発明はこれ以外に商品そのものを陳列した商品棚や電子的なディスプレイを用いない看板やPOPに注目する人物をターゲットにして用いることもできる。   As described above, the embodiment targeting the person who pays attention to the display of the digital signage has been described. However, the present invention is not limited to the product shelf displaying the product itself, the sign that does not use the electronic display, and the person paying attention to the POP. It can also be used as a target.

1 デジタルサイネージシステム
2 広告効果分析装置
20 顔検出手段
21 分析手段
3 デジタルサイネージ
3a ディスプレイ
4 ビデオカメラ
4a ビデオカメラの視点
4b ビデオカメラの視野角
DESCRIPTION OF SYMBOLS 1 Digital signage system 2 Advertising effect analyzer 20 Face detection means 21 Analysis means 3 Digital signage 3a Display 4 Video camera 4a Video camera viewpoint 4b Video camera viewing angle

Claims (8)

人物を撮影するカメラと,前記カメラが撮影した映像に含まれる顔画像を検出し,顔画像の検出結果を分析する顔検出結果分析装置とから少なくとも構成される顔検出結果分析システムであって,前記顔検出結果分析装置は,前記カメラが撮影した映像のフレーム毎に顔画像を前記フレームから検出し,前記顔画像に該当する閲覧者の閲覧者IDを付与して,前記フレーム内における前記顔画像の検出枠の位置及び矩形サイズを少なくとも顔検出結果としてログファイルに記憶する顔検出手段と,撮影距離の区分に従い,前記カメラの視野範囲を複数のエリアに分割したエリアマップを記憶し,前記ログファイルに含まれる前記顔画像の検出枠の矩形サイズから撮影距離を少なくとも求めることで,前記閲覧者がいたエリアを前記閲覧者ID毎に特定し,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出した後,前記エリアにいた前記閲覧者の総数をエリアマップ上に表示する表示データを生成する分析手段と,を備えていることを特徴とする顔検出結果分析システム。   A face detection result analysis system comprising at least a camera for photographing a person and a face detection result analyzer for detecting a face image included in a video photographed by the camera and analyzing the detection result of the face image, The face detection result analyzing apparatus detects a face image from the frame for each frame of a video photographed by the camera, assigns a viewer ID of a viewer corresponding to the face image, and the face in the frame The face detection means for storing the position of the image detection frame and the rectangular size in the log file as at least a face detection result, and an area map obtained by dividing the field-of-view range of the camera into a plurality of areas according to the shooting distance classification, and storing the log By determining at least the shooting distance from the rectangular size of the detection frame of the face image included in the file, the area where the viewer is located is determined as the viewer ID. And analyzing means for generating display data for displaying the total number of viewers in the area on an area map after calculating the total number of the viewers in the area for each area. This is a face detection result analysis system. 前記顔検出結果分析装置の前記分析手段は,前記カメラの視点を中心とした円座標系の角度と撮影距離に設定された区分によって,前記カメラの視野範囲を複数のエリアに分割した前記エリアマップを記憶し,前記顔画像の検出枠の中心位置から前記円座標系の角度の区分を特定し,前記顔画像の検出枠の矩形サイズから前記円座標系の撮影距離の区分を特定することで,前記閲覧者がいた前記エリアを前記閲覧者ID毎に特定することを特徴とする,請求項1に記載の顔検出結果分析システム。   The analysis means of the face detection result analysis apparatus may include the area map obtained by dividing the field-of-view range of the camera into a plurality of areas according to a division set in an angle of a circular coordinate system centered on the viewpoint of the camera and a shooting distance. Storing, identifying the angular segment of the circular coordinate system from the center position of the detection frame of the face image, and identifying the segment of the shooting distance of the circular coordinate system from the rectangular size of the detection frame of the face image, 2. The face detection result analysis system according to claim 1, wherein the area where the viewer is present is specified for each viewer ID. 前記顔検出結果分析装置の前記分析手段は,前記閲覧者がいた前記エリアを前記閲覧者ID毎に特定する際に,前記閲覧者がいた前記エリアの頻度を求め,すべての前記閲覧者IDの頻度の合計を前記エリア毎に算出することで,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出することを備えていることを特徴とする,請求項2に記載の顔検出結果分析システム。   The analysis means of the face detection result analyzing apparatus obtains the frequency of the area where the viewer was present when specifying the area where the viewer was present for each of the viewer IDs. 3. The face detection result analysis according to claim 2, further comprising: calculating the total number of the viewers in the area for each area by calculating a total frequency for each area. system. 前記顔検出結果分析装置の前記顔検出手段は,前記閲覧者IDに関連付けて,前記顔画像が検出された前記フレームの撮影日時を前記顔検出結果に含ませ,前記顔検出結果分析装置の前記分析手段は,前記ログファイルに記憶されている前記顔検出結果を日付又は時間帯の区分毎に分類し,日付又は時間帯の区分毎に,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出し,日付又は時間帯の区分毎の前記閲覧者の総数を示す表示データを生成することを特徴とする,請求項3に記載の顔検出結果分析システム。   The face detection means of the face detection result analyzer includes the shooting date and time of the frame in which the face image was detected in the face detection result in association with the viewer ID, and the face detection result analyzer of the face detection result analyzer The analysis means classifies the face detection results stored in the log file for each date or time zone classification, and for each date or time zone classification, the total number of viewers in the area is classified for each area. The face detection result analysis system according to claim 3, wherein display data indicating the total number of viewers for each date or time zone is generated. 前記顔検出結果分析装置の前記分析手段は,前記顔画像が撮影されていた総時間を前記閲覧者ID毎に算出することで,前記顔画像に対応する前記閲覧者が前記カメラの視野範囲内に滞在した滞留時間を算出し,前記ログファイルに記憶されている前記顔検出結果を滞留時間の区分毎に分類し,滞留時間の区分毎に,前記エリアにいた閲覧者の総数を前記エリア毎に算出し,滞留時間の区分毎の前記閲覧者の総数を示す表示データを生成することを特徴とする,請求項3に記載の顔検出結果分析システム。   The analysis means of the face detection result analysis apparatus calculates the total time that the face image was captured for each viewer ID, so that the viewer corresponding to the face image is within the visual field range of the camera. Dwelling time is calculated, and the face detection results stored in the log file are classified for each dwell time category, and for each dwell time category, the total number of viewers in the area is calculated for each area. The face detection result analysis system according to claim 3, wherein display data indicating the total number of viewers for each residence time category is generated. 前記顔検出結果分析装置の前記分析手段は,前記閲覧者IDで識別される前記閲覧者がいたエリアを特定する前に,前記フレーム内における前記顔画像の検出枠の位置及び矩形サイズから前記円座標系における前記閲覧者の座標値を算出し,前後する前記フレームの前記円座標系における前記閲覧者の座標値から前記閲覧者の動線を求め,規定以下の長さの前記動線が所定回数以上連続している場合,前記閲覧者IDで識別される前記閲覧者が前記カメラの視野範囲内に立ち止まりしたと判定し,規定以下の長さの人物の動線が所定回数以上連続している対応する箇所に対応する前記顔検出結果のみを利用して,前記エリアにいた前記閲覧者の総数を前記エリア毎に算出すること特徴とする,請求項3に記載の顔検出結果分析システム。   The analysis means of the face detection result analyzing apparatus determines the circle from the position and rectangular size of the detection frame of the face image in the frame before specifying the area where the viewer identified by the viewer ID was present. The coordinate value of the viewer in the coordinate system is calculated, and the flow line of the viewer is obtained from the coordinate value of the viewer in the circular coordinate system of the preceding and following frames. When the number of times is continuous, it is determined that the viewer identified by the viewer ID has stopped within the field of view of the camera, and the flow line of a person having a length less than the specified number continues for a predetermined number of times. The face detection result analysis system according to claim 3, wherein the total number of the viewers in the area is calculated for each area by using only the face detection result corresponding to a corresponding location. 請求項1から請求項6のいずれか一つに記載の顔検出結果分析システムを構成する顔検出結果分析装置。   A face detection result analysis apparatus constituting the face detection result analysis system according to claim 1. 請求項1から請求項6のいずれか一つに記載の顔検出結果分析システムを構成する顔検出結果分析装置として,コンピュータを機能させるためのコンピュータプログラム。
A computer program for causing a computer to function as a face detection result analysis apparatus constituting the face detection result analysis system according to any one of claims 1 to 6.
JP2009209618A 2009-09-10 2009-09-10 Face detection result analysis system, face detection result analysis apparatus, and computer program Expired - Fee Related JP5391951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009209618A JP5391951B2 (en) 2009-09-10 2009-09-10 Face detection result analysis system, face detection result analysis apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009209618A JP5391951B2 (en) 2009-09-10 2009-09-10 Face detection result analysis system, face detection result analysis apparatus, and computer program

Publications (2)

Publication Number Publication Date
JP2011060026A true JP2011060026A (en) 2011-03-24
JP5391951B2 JP5391951B2 (en) 2014-01-15

Family

ID=43947573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009209618A Expired - Fee Related JP5391951B2 (en) 2009-09-10 2009-09-10 Face detection result analysis system, face detection result analysis apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP5391951B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092955A (en) * 2011-10-27 2013-05-16 Hitachi Ltd Video analysis device and system
KR101488094B1 (en) 2012-07-13 2015-01-29 인텔 코오퍼레이션 Techniques for video analytics of captured video content
JP2015206764A (en) * 2014-04-23 2015-11-19 矢崎総業株式会社 Object person existence range estimation device and object person existence range estimation method
EP3349142A1 (en) * 2017-01-11 2018-07-18 Kabushiki Kaisha Toshiba Information processing device and method
JP2018173985A (en) * 2018-06-27 2018-11-08 株式会社ニコン Congestion degree estimation system and electric apparatus
JP2019153838A (en) * 2018-02-28 2019-09-12 パナソニックIpマネジメント株式会社 Apparatus control system and apparatus control method
CN110913126A (en) * 2019-10-31 2020-03-24 华为终端有限公司 Shooting range calculation method and device and related equipment
CN111950507A (en) * 2020-08-25 2020-11-17 北京猎户星空科技有限公司 Data processing and model training method, device, equipment and medium
WO2020255181A1 (en) * 2019-06-17 2020-12-24 政徳 高野 Digital signage matching system, digital signage matching system method, digital signage matching program, and camera-attached microcomputer for digital signage matching system
JP2022019397A (en) * 2020-07-17 2022-01-27 株式会社三鷹ホールディングス Point signage business system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175868A (en) * 1999-12-22 2001-06-29 Nec Corp Method and device for human detection
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175868A (en) * 1999-12-22 2001-06-29 Nec Corp Method and device for human detection
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092955A (en) * 2011-10-27 2013-05-16 Hitachi Ltd Video analysis device and system
KR101488094B1 (en) 2012-07-13 2015-01-29 인텔 코오퍼레이션 Techniques for video analytics of captured video content
US11627280B2 (en) 2012-07-13 2023-04-11 Intel Corporation Techniques for video analytics of captured video content
JP2015206764A (en) * 2014-04-23 2015-11-19 矢崎総業株式会社 Object person existence range estimation device and object person existence range estimation method
US10586115B2 (en) 2017-01-11 2020-03-10 Kabushiki Kaisha Toshiba Information processing device, information processing method, and computer program product
EP3349142A1 (en) * 2017-01-11 2018-07-18 Kabushiki Kaisha Toshiba Information processing device and method
JP2019153838A (en) * 2018-02-28 2019-09-12 パナソニックIpマネジメント株式会社 Apparatus control system and apparatus control method
JP7122643B2 (en) 2018-02-28 2022-08-22 パナソニックIpマネジメント株式会社 Equipment control system and equipment control method
JP2018173985A (en) * 2018-06-27 2018-11-08 株式会社ニコン Congestion degree estimation system and electric apparatus
WO2020255181A1 (en) * 2019-06-17 2020-12-24 政徳 高野 Digital signage matching system, digital signage matching system method, digital signage matching program, and camera-attached microcomputer for digital signage matching system
CN110913126A (en) * 2019-10-31 2020-03-24 华为终端有限公司 Shooting range calculation method and device and related equipment
JP2022019397A (en) * 2020-07-17 2022-01-27 株式会社三鷹ホールディングス Point signage business system
JP7314442B2 (en) 2020-07-17 2023-07-26 株式会社三鷹ホールディングス point signage business system
CN111950507A (en) * 2020-08-25 2020-11-17 北京猎户星空科技有限公司 Data processing and model training method, device, equipment and medium

Also Published As

Publication number Publication date
JP5391951B2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5391951B2 (en) Face detection result analysis system, face detection result analysis apparatus, and computer program
WO2021135196A1 (en) Status recognition method and device for display region, electronic apparatus, and storage medium
CN115997207B (en) Detecting a sub-image region of interest in an image using a pilot signal
JP6008339B1 (en) Product monitoring device, product monitoring system and product monitoring method
JP5224360B2 (en) Electronic advertising device, electronic advertising method and program
JP2011210238A (en) Advertisement effect measuring device and computer program
EP3118772A1 (en) Image content providing apparatus and image content providing method
WO2009096428A1 (en) Display system, system for measuring display effect, display method, method for measuring display effect, and recording medium
JP2010218550A (en) System for measuring stream of people
US9349053B2 (en) Method and system of identifying non-distinctive images/objects in a digital video and tracking such images/objects using temporal and spatial queues
US20120114198A1 (en) Facial image gender identification system and method thereof
US11568644B2 (en) Methods and systems for scoreboard region detection
WO2014044158A1 (en) Identification method and device for target object in image
WO2021143228A1 (en) Data pushing method and apparatus, electronic device, computer storage medium and computer program
Chen et al. Improved seam carving combining with 3D saliency for image retargeting
JP5325181B2 (en) Content display control method, content display control device, and content display system
WO2018235595A1 (en) Information provision device, information provision method and program
JP2011070629A5 (en)
JP2011070629A (en) Advertising effect measurement system and advertising effect measurement device
JP2023016848A (en) Advertisement viewing information output method, advertisement viewing information output program, and information processing device
CN109388232B (en) Visual utility analysis method and related eyeball tracking device and system
TW201523459A (en) Object tracking method and electronic apparatus
US7991225B2 (en) Methods and systems for dynamic color equalization
JP5962383B2 (en) Image display system and image processing apparatus
CN110392310B (en) Display method of video identification information and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130711

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130930

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees