JP2017151832A - Wait time calculation system - Google Patents

Wait time calculation system Download PDF

Info

Publication number
JP2017151832A
JP2017151832A JP2016035094A JP2016035094A JP2017151832A JP 2017151832 A JP2017151832 A JP 2017151832A JP 2016035094 A JP2016035094 A JP 2016035094A JP 2016035094 A JP2016035094 A JP 2016035094A JP 2017151832 A JP2017151832 A JP 2017151832A
Authority
JP
Japan
Prior art keywords
time
feature
waiting time
calculation system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016035094A
Other languages
Japanese (ja)
Inventor
慶祐 松原
Keisuke Matsubara
慶祐 松原
英一 原
Hidekazu Hara
英一 原
文人 岩下
Fumito Iwashita
文人 岩下
正嗣 野宮
Masatsugu Nomiya
正嗣 野宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016035094A priority Critical patent/JP2017151832A/en
Publication of JP2017151832A publication Critical patent/JP2017151832A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wait time calculation system which removes noise from a measured movement time when calculating an entire wait time from a measurement result of the movement time of a person who waits for movement to a specific place, by using biological information including face images and personal identification information.SOLUTION: At a server, a face image (feature information) that is captured with a second camera 201 which captures an image of a movement destination corresponding to a face image (converted into feature information) captured with a first camera 200 is determined. Based on the result of determination, a movement time of a person corresponding to the face image is calculated based on the image capturing time, that is, a difference between the times of image capture by the first and second cameras. In the calculation, if a difference between the capturing time of the first face image and the capturing time of the second face image satisfies (or does not satisfy) a certain condition, it is removed from wait time calculation as noise.SELECTED DRAWING: Figure 1

Description

本発明は、サービスを受けるために所定場所に移動する際に形成される行列における待ち時間を算出するための技術に関する。その中でも、レストラン、劇場、アミューズメント施設、空港の検査場等での待ち時間を計測するための技術に関する。   The present invention relates to a technique for calculating a waiting time in a matrix formed when moving to a predetermined place to receive a service. Among them, it relates to a technique for measuring waiting time at restaurants, theatres, amusement facilities, airport inspection halls, and the like.

現在、所定場所に移動するために順番待ちが行われている。この順番待ちに関する技術として特許文献1が提案されている。特許文献1では、以下のことが開示されている。「利用者の認証情報を登録する登録装置1、認証情報を管理するとともに利用者の個人認証を行う管理サーバ2、利用者の個人認証のために認証情報を管理サーバ2に与える認証装置3を備え、画像処理によって抽出した利用者の顔の特徴を認証情報としているため、アトラクションを利用する際に認証装置3に顔を見せるだけで個人認証が行え、利用者は入場カードのような認証用の部材を携帯する必要がない。よって、入場カードの紛失や盗難の虞がなく、利用者にとっての使い勝手やセキュリティが向上する。」
その上、請求項6等に、待ち行列における「経過時間」を計測するために、顔画像を用いることが記載されている。
Currently, there is a turn waiting to move to a predetermined place. Patent Document 1 has been proposed as a technique relating to this waiting for a turn. Patent Document 1 discloses the following. “Registration device 1 for registering user authentication information, management server 2 for managing authentication information and personal authentication for user, and authentication device 3 for providing authentication information to management server 2 for user personal authentication Since the facial features of the user extracted by image processing are used as authentication information, personal authentication can be performed simply by showing the face to the authentication device 3 when using the attraction, and the user can authenticate like an admission card. It is not necessary to carry any of the members, so there is no risk of the entrance card being lost or stolen, and the usability and security for the user are improved. "
In addition, claim 6 describes that a face image is used to measure “elapsed time” in the queue.

特開2004−126719号公報JP 2004-126719 A

ここで、所定場所に移動する際の待機エリア(行列ができているエリア)においては、サービス受領者、すなわち、行列を形成している者以外の人間も立ち入ることがある。例えば、職員、係員などがサービスのために、待機エリアに入場し、移動していることがある。また、一時的に行列を離れる者も存在する。   Here, in a waiting area (an area where a queue is formed) when moving to a predetermined place, a person other than the service recipient, that is, a person who forms the queue may enter. For example, a staff member or a staff member may enter a waiting area and move for service. Some people temporarily leave the queue.

このため、当該待機エリアに存在する人間について無作為に移動状況を把握した場合、ノイズ(本来の行列の待ち時間から乖離)が発生するとの課題が生じる。   For this reason, there is a problem that noise (deviation from the waiting time of the original matrix) is generated when the movement status is randomly grasped for a person existing in the waiting area.

上記課題を解決するために、本発明では、顔画像を含む生体情報や本人特定情報を用いて、所定場所への移動するために待機している人間の移動時間を計測した結果を用いて、全体の待ち時間を算出する際、計測された移動時間からノイズを除去するものである。   In order to solve the above-described problem, in the present invention, using biological information including face images and person identification information, using a result of measuring a moving time of a person waiting to move to a predetermined location, When calculating the entire waiting time, noise is removed from the measured travel time.

より具体的には、以下の態様を用いる。
第1のカメラで撮影した顔画像(から特徴情報に変換し)に対応する、移動先を撮影する第2のカメラで撮影された顔画像(特徴情報)を特定し、
特定結果に基づいて、当該顔画像の人間の移動時間を、その撮影時間、すなわち、第1と第2のカメラの撮影時間の差分に基づいて算出し、
当該算出において、前記第1の顔画像の撮影時間と第2の顔画像の撮影時間の差分が一定条件を満たす場合(ないし満たさない場合)、ノイズとして、待ち時間算出から除くものである。これは、ノイズ以外の移動時間を使って算出することになり、真に待ち時間算出に用いるべき移動時間を特定して、これらを待ち時間算出に用いることでもある。
More specifically, the following embodiment is used.
Identify the face image (feature information) shot by the second camera that shoots the destination, corresponding to the face image shot from the first camera (converted from the feature information),
Based on the specific result, the human moving time of the face image is calculated based on the shooting time, that is, the difference between the shooting times of the first and second cameras,
In the calculation, when the difference between the shooting time of the first face image and the shooting time of the second face image satisfies (or does not satisfy) a certain condition, it is excluded from the waiting time calculation as noise. This means that the travel time other than noise is used for calculation, and the travel time that should be truly used for the waiting time calculation is specified, and these are used for the waiting time calculation.

本発明の構成によれば、待ち時間をより正確に算出することが可能になる。   According to the configuration of the present invention, the waiting time can be calculated more accurately.

本発明の一実施形態の適用先である空港の検査場のレイアウトを示す図である。It is a figure which shows the layout of the inspection place of the airport which is the application destination of one Embodiment of this invention. 本発明の一実施形態で用いるシステム構成図である。It is a system configuration diagram used in one embodiment of the present invention. 本発明の一実施形態の処理で用いられるテーブル構成図である。It is a table block diagram used by the process of one Embodiment of this invention. 本発明の一実施形態における処理フローを示すフローチャートである。It is a flowchart which shows the processing flow in one Embodiment of this invention. 図4のステップ1010の詳細を示すフローチャートである。It is a flowchart which shows the detail of step 1010 of FIG.

以下、本発明の一実施形態を、図面を用いて説明する。まず、図1が、本実施形態における待ち時間算出システムを適用する空港での検査場におけるレイアウトを示す図である。
検査場4(図1の全体)において、旅客は外部待機エリア6から、入口1を経由して内部待機エリア5に入る。そして、内部待機エリア5において検査を受けるために待ち行列を形成し、出口2を経由して出口レーン3で検査を受ける。そこで、本実施形態では、内部エリア5での待ち時間を算出する。このために、各旅客の入口1から出口2(のいずれか)への移動時間を計測し、内部待機エリア5での待ち時間を算出する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, FIG. 1 is a diagram showing a layout at an inspection station at an airport to which the waiting time calculation system according to the present embodiment is applied.
At the inspection site 4 (the whole of FIG. 1), the passenger enters the internal standby area 5 from the external standby area 6 via the entrance 1. Then, a queue is formed to receive the inspection in the internal waiting area 5, and the inspection is performed in the exit lane 3 via the exit 2. Therefore, in this embodiment, the waiting time in the internal area 5 is calculated. For this purpose, the travel time of each passenger from the entrance 1 to the exit 2 (any one) is measured, and the waiting time in the internal waiting area 5 is calculated.

この各旅客の移動時間の計測のために、入口部カメラ200と出口部カメラ201a、b等を用いる。つまり、旅客が入口1に入った際に、入力部カメラ200で任意の旅客を撮影した時刻と、出口2に達した際に撮影した時刻の差分から移動時間を計測する。このために、顔画像認識を行い、各旅客を特定し、計測に用いる。   In order to measure the travel time of each passenger, the entrance camera 200 and the exit cameras 201a and 201b are used. In other words, when the passenger enters the entrance 1, the travel time is measured from the difference between the time when an arbitrary passenger is photographed with the input unit camera 200 and the time when the passenger 2 is photographed. For this purpose, face image recognition is performed to identify each passenger and use it for measurement.

次に、図2に、本実施形態での処理を実行する待ち時間算出システムのシステム構成図を示す。まず、顔画像を取り込むための各種カメラがあり、それぞれ入口1に到達した旅客を撮影する入口部カメラ200と、出口2に到達した旅客を撮影する出口部カメラ201a、b…が設けられている。これら各カメラは、顔画像の特徴を抽出するための特徴量抽出装置210にそれぞれ接続されている。なお、ここでは、出口部カメラを複数、入口部カメラを単数開示しているが、それぞれ単数、複数であってもよい。但し、入口や出口の数に対応させた数を設置することがより好適である。また、特徴量抽出装置は、入口部カメラ200や出口部カメラ201a,b等とそれぞれ接続されているが、サーバー100側に設置してもよいし、入口部カメラ200や出口部カメラ201a,b等について纏めて設置してもよい。   Next, FIG. 2 shows a system configuration diagram of a waiting time calculation system that executes processing in the present embodiment. First, there are various cameras for capturing a face image, and an entrance camera 200 for photographing a passenger who has reached the entrance 1, an exit camera 201a, b... For photographing a passenger that has reached the exit 2, respectively. . Each of these cameras is connected to a feature amount extraction device 210 for extracting features of the face image. Here, a plurality of exit cameras and a single entrance camera are disclosed, but a single or a plurality of exit cameras may be provided. However, it is more preferable to install a number corresponding to the number of entrances and exits. The feature amount extraction device is connected to the entrance camera 200 and the exit cameras 201a and 201b, respectively. However, it may be installed on the server 100 side, or the entrance camera 200 and the exit cameras 201a and 201b. Etc. may be installed together.

サーバー100は、特徴量抽出装置210からネットワーク300を経由して送信される特徴量を受信し、各旅客の移動時間の計測やそれに基づく待ち時間の算出を行うCPU110を有する。また、これらの処理で必要となる情報や算出された情報を格納する記憶装置120を有する。   The server 100 includes a CPU 110 that receives a feature amount transmitted from the feature amount extraction apparatus 210 via the network 300 and measures the travel time of each passenger and calculates a waiting time based thereon. The storage device 120 stores information necessary for these processes and calculated information.

CPU110においては、図示しないプログラムに従って、各種処理を実行する。その各種処理を仮想的に構成要件として記載したものが、特徴量情報受信記憶部111、特徴量情報認証整合部112および待ち時間算出部113である。また、記憶装置120においては、入口通過者特徴量テーブル121、出口通過者特徴量テーブル122および待ち時間算出結果テーブル123を有する。これらの詳細については、以降の処理フローの説明において記述する。   The CPU 110 executes various processes according to a program (not shown). A feature amount information reception storage unit 111, a feature amount information authentication matching unit 112, and a waiting time calculation unit 113 are virtual descriptions of the various processes. Further, the storage device 120 includes an entrance passer feature value table 121, an exit passer feature value table 122, and a waiting time calculation result table 123. Details of these will be described in the following description of the processing flow.

次に、図4等を用いて処理フローについて説明する。
図4は、サーバー100の処理を示すフローチャートである。ステップ1000において、まずは処理の開始、すなわち、起動がなされる。これは、検査場の開場時間に自動的に開始してもよいし、管理者の起動によって行ってもよい。
Next, the processing flow will be described with reference to FIG.
FIG. 4 is a flowchart showing processing of the server 100. In step 1000, first, the process is started, that is, started. This may be started automatically at the opening time of the inspection site, or may be performed by activation of an administrator.

次に、ステップ1001において、特徴量抽出装置210から送信される特徴量および撮影場所の受信を行う。このため、各種カメラにおいては、入口ないし出口付近を撮影し、その撮影データを各特徴量抽出装置210に送信する。そして、各特徴量抽出装置210において、撮影データから各旅客の顔画像を取り出し、取り出した各顔画像の特徴量を算出する。その上で、撮影したカメラ、つまり、入口部カメラ200ないし出口部カメラ201のいずれかであるかを示す情報と、撮影時刻を算出する。そして、これらを、サーバー100に送信する。これをサーバー100では受信する。なお、撮影時刻については、特徴量抽出装置が特徴量を算出した時刻を用いる。但し、カメラから撮影時間を受信したり、カメラからの撮影データを受信した時刻などを用いてもよい。   Next, in step 1001, the feature amount and the shooting location transmitted from the feature amount extraction apparatus 210 are received. For this reason, in various cameras, the vicinity of the entrance or the exit is photographed, and the photographed data is transmitted to each feature quantity extraction device 210. Then, each feature amount extraction device 210 extracts each passenger's face image from the captured data, and calculates the feature amount of each extracted face image. Then, information indicating whether the camera is a photographed camera, that is, the entrance camera 200 or the exit camera 201, and the photographing time are calculated. Then, these are transmitted to the server 100. The server 100 receives this. As the shooting time, the time when the feature amount extraction apparatus calculates the feature amount is used. However, the time when the photographing time is received from the camera or the time when the photographing data from the camera is received may be used.

次に、ステップ1002では、受信したデータに入口部を示す情報カメラ200ないし出口部カメラ201を示す情報のいずれが含まれているかを判断する。入口部カメラ200を示す情報が含まれている場合は、ステップ1003に進み、出口部カメラ201を示す情報が含まれている場合は、ステップ1006に進む。   Next, in step 1002, it is determined which of the information indicating the information camera 200 or the exit camera 201 indicating the entrance portion is included in the received data. If the information indicating the entrance camera 200 is included, the process proceeds to step 1003. If the information indicating the exit camera 201 is included, the process proceeds to step 1006.

ここで、入口部カメラ200を示す情報の場合の処理について、説明する。まず、ステップ1003において、受信した特徴量と撮影時刻を、図3に示す入口通過者特徴量テーブル121に格納する。この際、図3では、各データについて、特徴量を特徴量情報と、撮影時刻を通過時刻と名称を変更している。但し、それぞれ名称を変更しなくともよい。   Here, processing in the case of information indicating the entrance camera 200 will be described. First, in step 1003, the received feature value and shooting time are stored in the entrance passer feature value table 121 shown in FIG. At this time, in FIG. 3, for each data, the feature amount is changed to the feature amount information, and the shooting time is changed to the passage time and the name. However, it is not necessary to change the names.

次に、ステップ1004において、入口通過者特徴量テーブル121に格納されている各レコードについて、その通過時刻と現時刻の差分が一定時間以上であるかを確認する。これは、周期的に(1分ごと等)に各レコードについて確認処理を行う。   Next, in step 1004, for each record stored in the entrance passer feature quantity table 121, it is confirmed whether or not the difference between the passing time and the current time is a certain time or more. This is performed for each record periodically (such as every minute).

一定時間以上でない場合は、そのまま処理を終了する。一定以上時間以上の場合は、ステップ1005に進み、当該レコードを消去する。このことで、移動時間計測の対象データから省くことになる。例えば、検査員がパスポートチェックのために入口1に長時間滞在する場合、これについても移動時間を計測すると、待ち時間の実態とはかけ離れた計測時間となるため、これらを省くことが必要になる。このために、一定時間以上の場合、そのレコードを消去する。また、レコードを消去の代わりに無効化フラグを記録して、計測の対象外としてもよい。   If it is not longer than a certain time, the process is terminated as it is. If it is longer than a certain time, the process proceeds to step 1005 to delete the record. Thus, it is omitted from the target data for travel time measurement. For example, when an inspector stays at the entrance 1 for a passport check for a long time, if the travel time is also measured for this, the measurement time is far from the actual waiting time, so it is necessary to omit them. . For this reason, the record is deleted when it is longer than a predetermined time. Further, an invalidation flag may be recorded instead of erasing the record and excluded from measurement.

次に、受信したデータが出口部カメラ201を示す情報の場合の処理について説明する。まずステップ1006において、受信した特徴量と撮影時刻を、図3に示す出口通過者特徴量テーブル122に格納する。この際、図3では、各データについて、特徴量を特徴量情報と、撮影時刻を通過時刻と名称を変更している。但し、それぞれ名称を変更しなくともよい。   Next, a process when the received data is information indicating the exit camera 201 will be described. First, in step 1006, the received feature quantity and shooting time are stored in the exit passer feature quantity table 122 shown in FIG. At this time, in FIG. 3, for each data, the feature amount is changed to the feature amount information, and the shooting time is changed to the passage time and the name. However, it is not necessary to change the names.

次に、ステップ1007において、格納したレコードについて、逐次、入口通過者特徴量テーブル121の各レコードとの照合を行う。これは、出口通過者特徴量テーブル122の特徴量情報を、入口通過者特徴量テーブル121の各特徴量情報と比較し、対応するものを入口通過者特徴量テーブル121から特定する。なお、入口通過者特徴量テーブル121の各特徴量情報の各レコードと比較する際、撮影時刻が古いものから順に比較したり、当該時刻における平均的な移動時間から優先的に比較してもよい。さらに、ステップ1005において、一定時間以上経過したレコードを無効化した場合、当然無効化したレコードを比較、照合の対象から外す。   Next, in step 1007, the stored record is sequentially checked against each record in the entrance passer feature quantity table 121. This compares the feature amount information in the exit passer feature amount table 122 with each feature amount information in the entrance passer feature amount table 121, and specifies a corresponding one from the entrance passer feature amount table 121. In addition, when comparing with each record of each feature amount information of the entrance passer feature amount table 121, the shooting times may be compared in order from the oldest, or may be preferentially compared from the average travel time at the time. . Furthermore, in step 1005, when a record that has passed for a certain period of time is invalidated, the invalidated record is naturally excluded from comparison and collation targets.

また、本実施形態では、出口通過者特徴量テーブル122に、特徴量情報および通過時刻を格納する構成としているが、これを設けず、処理のために用いるバッファ等一時格納領域に一旦格納して処理する構成にしてもよい。   In the present embodiment, the feature information and the passage time are stored in the exit passer feature table 122, but this is not provided, and is temporarily stored in a temporary storage area such as a buffer used for processing. You may make it the structure processed.

上記比較の結果、対応するレコードがない場合(no)、エラー表示などを行い処理を終了する。また、対応するものが存在する場合、ステップ1009に進み、当該特徴量情報の旅客の移動時間を計算する。つまり、通過時間の差分を計算し、通過時間の計測とする。   As a result of the comparison, if there is no corresponding record (no), an error display or the like is performed and the process is terminated. If there is a corresponding item, the process proceeds to step 1009 to calculate the travel time of the passenger of the feature amount information. That is, the difference of passage time is calculated and it is set as measurement of passage time.

次に、ステップ1010において、計測された通過時間が、ノイズであるかを判定する。その内容を図5を参照して説明する。まず、ステップ2001において、計測された移動時間が、予め設定した第1の閾値未満(ないし以下)であるか、第2の閾値以上(ないしそれより大きい)である場合は、ノイズと判定する。ここで、より好適には、第2の閾値は、ステップ1004等で用いた一定時間と同じ値にしてもよい。また、このステップ2001の判断においては、前後に計算した移動時間との差異が、所定条件を満たす場合、ノイズとして判断してもよい。つまり、前後(いずれかに)計算した移動時間との差が大きい場合、このように判定する。   Next, in step 1010, it is determined whether the measured passage time is noise. The contents will be described with reference to FIG. First, in step 2001, if the measured movement time is less than (or less than) the first threshold set in advance or greater than (or greater than) the second threshold, it is determined as noise. Here, more preferably, the second threshold value may be the same value as the fixed time used in step 1004 or the like. Further, in the determination in step 2001, when the difference from the travel time calculated before and after satisfies a predetermined condition, it may be determined as noise. That is, when the difference between the travel times calculated before and after (either) is large, the determination is made in this way.

この結果、ノイズとして判定された場合、ステップ2002に進み、判定されなかった場合、ステップ2003に進む。以上で、ステップ1010の詳細の説明を終了する。   As a result, if it is determined as noise, the process proceeds to step 2002; otherwise, the process proceeds to step 2003. This is the end of the detailed description of step 1010.

次に、図4に戻り、ステップ1010以降の処理を説明する。ノイズであると判定された場合、図3に示す待ち時間算出結果テーブル123に、特徴量情報、入口経過時間、出口経過時間、計測された移動時間を格納し、また、有効フラグには無効であることを示す情報を格納するか、特に情報を格納しないでおき、処理を終了する。また、ノイズについては、待ち時間算出結果テーブル123に格納せず、処理を終了してもよい。   Next, returning to FIG. 4, the processing after step 1010 will be described. When it is determined that the noise is detected, the feature amount information, the entrance elapsed time, the exit elapsed time, and the measured travel time are stored in the waiting time calculation result table 123 shown in FIG. 3, and the valid flag is invalid. Information indicating that it is present is stored, or information is not particularly stored, and the process is terminated. Further, noise may not be stored in the waiting time calculation result table 123, and the process may be terminated.

また、ノイズでないと判断された場合、ステップ1011に進み、特徴量情報、入口経過時間、出口経過時間、計測された移動時間および有効フラグに有効であることを示す情報を格納する。なお、有効フラグを用いない態様、つまり、ノイズを格納しない場合、有効フラグを省略してもよい。   On the other hand, if it is determined that it is not noise, the process proceeds to step 1011 and information indicating that the feature amount information, the entrance elapsed time, the exit elapsed time, the measured travel time, and the validity flag are valid is stored. It should be noted that the valid flag may be omitted in a mode in which the valid flag is not used, that is, when noise is not stored.

以上のように移動時間を計算し、適宜待ち時間の算出に用いる。例えば、待ち時間の算出に適宜役立てることが可能になる。例えば、一定時間帯における移動時間の平均を待ち時間として算出してもよい。この一定時間帯には、日、時間、週などが含まれる。また、現在時刻に近いないしそれを含む1時間等の一定時間帯における平均を現在の待ち時間として算出して、内部待機エリア5で待っている旅客に提示してもよい。この際、待ち時間の数字や、その混雑具合を色等で表示してもよい。この表示においては、内部待機エリア5に設置された大型モニタに表示したり、インターネットを介して携帯電話、PC、スマートフォン等の端末装置で表示可能にしてもよい。さらに、外部待機エリア6や空港駅等の空港の各施設のモニタに表示してもよい。   As described above, the travel time is calculated and used for calculating the waiting time as appropriate. For example, it is possible to appropriately use for calculating the waiting time. For example, the average travel time in a certain time period may be calculated as the waiting time. This fixed time zone includes days, hours, weeks, and the like. Further, an average in a certain time zone such as one hour including or close to the current time may be calculated as the current waiting time and presented to a passenger waiting in the internal waiting area 5. At this time, the number of waiting times and the degree of congestion may be displayed in color or the like. In this display, the information may be displayed on a large monitor installed in the internal standby area 5 or may be displayed on a terminal device such as a mobile phone, a PC, or a smartphone via the Internet. Furthermore, it may be displayed on the monitor of each facility in the airport such as the external standby area 6 or the airport station.

なお、本実施形態では、空港の検査場を例としたが、いわゆる待ち行列が形成される場所での適用が可能である。例えば、レストラン、劇場、アミューズメント施設、ATM等の待ち行列にも適用可能である。   In this embodiment, an airport inspection station is taken as an example, but application is possible in a place where a so-called queue is formed. For example, the present invention can be applied to a queue such as a restaurant, a theater, an amusement facility, and an ATM.

さらに、本実施形態では、顔画像を変換して特徴量(情報)を用いているが、変換しなくてもよい。また、他の生体情報(静脈情報、虹彩、指紋等)やカメラを用いず入力デバイスから取得可能なID等の個人特定情報を用いてもよい。さらに、カメラにおいて、対象者の服装や髪形などの特徴情報をもちいてもよい。   Furthermore, in the present embodiment, the face image is converted and the feature amount (information) is used. However, the conversion may not be performed. Also, other biological information (vein information, iris, fingerprint, etc.) or personal identification information such as an ID that can be acquired from an input device without using a camera may be used. Furthermore, the camera may use characteristic information such as the subject's clothes and hairstyle.

100…サーバー、200…入口部カメラ、201…出口部カメラ、210…特徴量抽出装置、300…ネットワーク DESCRIPTION OF SYMBOLS 100 ... Server, 200 ... Entrance part camera, 201 ... Exit part camera, 210 ... Feature-value extraction apparatus, 300 ... Network

Claims (5)

所定エリアの第1の地点から第2の地点への待ち時間を算出する待ち時間算出システムにおいて、
前記第1の地点において、第1のカメラで撮影された複数の顔画像のそれぞれを複数の第1の特徴量に変換する手段と、
前記第2の地点において第2のカメラで撮影された複数の顔画像のそれぞれを複数の第2の特徴量に変換する手段と、
前記複数の第1の特徴量と、前記複数の第2の特徴量のそれぞれを比較して、対応する第1の特徴量と第2の特徴量を特定する手段と、
特定された前記第1の特徴量と前記第2の特徴量について、それぞれの撮影時間の差分を計算して、特定された前記第1の特徴量と前記第2の特徴量を有する人間の前記第1の地点から前記第2の地点への移動時間を計測する手段と、
前記移動時間のうち、所定条件を満たすノイズを除去するための手段を有し、
前記移動時間に基づいて、前記待ち時間を算出可能とする待ち時間算出システム。
In the waiting time calculation system that calculates the waiting time from the first point of the predetermined area to the second point,
Means for converting each of a plurality of face images photographed by a first camera into a plurality of first feature values at the first point;
Means for converting each of a plurality of face images photographed by a second camera at the second point into a plurality of second feature amounts;
Means for comparing each of the plurality of first feature quantities and each of the plurality of second feature quantities to identify the corresponding first feature quantity and second feature quantity;
For the specified first feature value and the second feature value, a difference between the respective shooting times is calculated, and the human having the specified first feature value and the second feature value is calculated. Means for measuring the travel time from the first point to the second point;
A means for removing noise that satisfies a predetermined condition in the travel time;
A waiting time calculating system that makes it possible to calculate the waiting time based on the travel time.
請求項1に記載の待ち時間算出システムにおいて、
前記ノイズを除去する手段は、前記第1の特徴量における撮影時間と、移動時間を算出する際に用いる基準時間である現在時間との差分が一定以上である第1の特徴量を無効化ないし消去することを特徴とする待ち時間算出システム。
In the waiting time calculation system according to claim 1,
The means for removing the noise invalidates the first feature amount in which a difference between a shooting time in the first feature amount and a current time which is a reference time used for calculating the movement time is equal to or greater than a certain value. A waiting time calculation system characterized by erasing.
請求項1または2のいずれかに記載の待ち時間算出システムにおいて、
前記ノイズを除去する手段は、前記移動時間が所定の条件を満たす場合、ノイズとして判定することを特徴とする待ち時間算出システム。
In the waiting time calculation system according to claim 1 or 2,
The waiting time calculating system characterized in that the means for removing noise is determined as noise when the moving time satisfies a predetermined condition.
請求項3に記載の待ち時間算出システムにおいて、
前記ノイズを除去する手段は、前記移動時間が、予め設定した第1の閾値未満であるか、第2の閾値以上である場合に、当該移動時間をノイズとして判定することを特徴とする待ち時間算出システム。
In the waiting time calculation system according to claim 3,
The means for removing noise determines the movement time as noise when the movement time is less than a preset first threshold value or greater than or equal to a second threshold value. Calculation system.
請求項4に記載の待ち時間算出システムにおいて、
前記第2の閾値は、前記一定時間であることを特徴とする待ち時間算出システム。
In the waiting time calculation system according to claim 4,
The waiting time calculation system, wherein the second threshold is the predetermined time.
JP2016035094A 2016-02-26 2016-02-26 Wait time calculation system Pending JP2017151832A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016035094A JP2017151832A (en) 2016-02-26 2016-02-26 Wait time calculation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016035094A JP2017151832A (en) 2016-02-26 2016-02-26 Wait time calculation system

Publications (1)

Publication Number Publication Date
JP2017151832A true JP2017151832A (en) 2017-08-31

Family

ID=59739173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016035094A Pending JP2017151832A (en) 2016-02-26 2016-02-26 Wait time calculation system

Country Status (1)

Country Link
JP (1) JP2017151832A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188079A1 (en) * 2018-03-26 2019-10-03 株式会社日立国際電気 Person transit time measurement system and person transit time measurement method
JP2019199353A (en) * 2018-05-18 2019-11-21 東芝エレベータ株式会社 Passenger conveyor
WO2020016973A1 (en) * 2018-07-18 2020-01-23 日本電気株式会社 Control device, data analysis system, control method, and computer program
JP2020077222A (en) * 2018-11-08 2020-05-21 株式会社日立製作所 Pedestrian simulation device
CN111914591A (en) * 2019-05-08 2020-11-10 杭州海康威视数字技术股份有限公司 Duration determination method and device
WO2021260940A1 (en) * 2020-06-26 2021-12-30 日本電気株式会社 Server device, system, control method for server device, and recording medium
JP2022068878A (en) * 2020-06-26 2022-05-10 日本電気株式会社 Server device, system, control method of server device, and computer program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7108022B2 (en) 2018-03-26 2022-07-27 株式会社日立国際電気 Person passing time measuring system and person passing time measuring method
WO2019188079A1 (en) * 2018-03-26 2019-10-03 株式会社日立国際電気 Person transit time measurement system and person transit time measurement method
JPWO2019188079A1 (en) * 2018-03-26 2021-03-25 株式会社日立国際電気 Person transit time measurement system and person transit time measurement method
JP2019199353A (en) * 2018-05-18 2019-11-21 東芝エレベータ株式会社 Passenger conveyor
WO2020016973A1 (en) * 2018-07-18 2020-01-23 日本電気株式会社 Control device, data analysis system, control method, and computer program
JP7124872B2 (en) 2018-07-18 2022-08-24 日本電気株式会社 Control device, data analysis system, control method and computer program
JPWO2020016973A1 (en) * 2018-07-18 2021-07-15 日本電気株式会社 Control devices, data analysis systems, control methods and computer programs
JP2020077222A (en) * 2018-11-08 2020-05-21 株式会社日立製作所 Pedestrian simulation device
JP7233889B2 (en) 2018-11-08 2023-03-07 株式会社日立製作所 Pedestrian simulation device
CN111914591A (en) * 2019-05-08 2020-11-10 杭州海康威视数字技术股份有限公司 Duration determination method and device
JP7010421B1 (en) * 2020-06-26 2022-01-26 日本電気株式会社 Server equipment, system, control method of server equipment and computer program
JP2022068878A (en) * 2020-06-26 2022-05-10 日本電気株式会社 Server device, system, control method of server device, and computer program
WO2021260940A1 (en) * 2020-06-26 2021-12-30 日本電気株式会社 Server device, system, control method for server device, and recording medium
JP7287512B2 (en) 2020-06-26 2023-06-06 日本電気株式会社 SERVER DEVICE, SYSTEM, CONTROL METHOD FOR SERVER DEVICE, AND COMPUTER PROGRAM

Similar Documents

Publication Publication Date Title
JP7196893B2 (en) Face matching system, face matching method, and program
JP2017151832A (en) Wait time calculation system
JP5851651B2 (en) Video surveillance system, video surveillance method, and video surveillance device
US11263846B2 (en) Authentication method and user equipment
JP2022040245A (en) Face collation system, face collation device, face collation method, and recording medium
JP2012088944A5 (en)
JP5785667B1 (en) Person identification system
JP7196932B2 (en) Information processing device, information processing method, and program
US20230394125A1 (en) Server device, visitor notification system, visitor notification method, and storage medium
JP2022090082A (en) Information processor
JPWO2020138348A1 (en) Information processing equipment, information processing methods and programs
JP6991737B2 (en) Information processing equipment, information processing methods and programs
JP2019102024A (en) Event hall face registration system
JP2006215858A (en) Entrance and exit management system and entrance and exit management method
US20180089500A1 (en) Portable identification and data display device and system and method of using same
JP7439897B2 (en) Stay management device, stay management method, program and stay management system
WO2022003766A1 (en) Information processing device, face authentication promotion system, information processing method, and non-transitory computer-readable medium in which program is stored
JPWO2021176593A5 (en) Stay management device, stay management method, program and stay management system
JP6815667B1 (en) Information processing equipment, information processing methods, programs and camera systems
CN113591713A (en) Image processing method and device, electronic equipment and computer readable storage medium
JPWO2021199114A5 (en) Recommendation device, system, method and program
WO2022113148A1 (en) Server device, system, control method of server device, and storage medium
JP7505557B2 (en) Information processing device, face recognition promotion system, information processing method, and program
EP4060605A1 (en) Information processing device, information processing method, program, recording medium, and camera system
WO2022044274A1 (en) Authentication control device, authentication system, authentication control method, and non-transitory computer-readable medium