JP5139947B2 - 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法 - Google Patents

監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法 Download PDF

Info

Publication number
JP5139947B2
JP5139947B2 JP2008257998A JP2008257998A JP5139947B2 JP 5139947 B2 JP5139947 B2 JP 5139947B2 JP 2008257998 A JP2008257998 A JP 2008257998A JP 2008257998 A JP2008257998 A JP 2008257998A JP 5139947 B2 JP5139947 B2 JP 5139947B2
Authority
JP
Japan
Prior art keywords
image
face
time
area
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008257998A
Other languages
English (en)
Other versions
JP2010088072A (ja
Inventor
誠之 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Technology Corp
Original Assignee
Mitsubishi Electric Information Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Technology Corp filed Critical Mitsubishi Electric Information Technology Corp
Priority to JP2008257998A priority Critical patent/JP5139947B2/ja
Publication of JP2010088072A publication Critical patent/JP2010088072A/ja
Application granted granted Critical
Publication of JP5139947B2 publication Critical patent/JP5139947B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、例えば、所定のエリアにおける物の置き去り・持ち去りを検知するとともに、物の置き去り・持ち去り発生時にそのエリアにいた人物を特定するための画像を記憶・表示する監視画像記憶システムに関する。
例えば、銀行等の金融機関のATM(現金自動預け払い機:Automated Teller Machine)コーナーには、ATMエリアの天井等に取り付けられたコーナー全体を撮影する監視カメラと、ATMを利用する人物の顔を真正面から撮影する顔撮影カメラとが設置されている。従来技術では、監視カメラが撮影した、例えばATMエリア全体のような所定のエリアのエリア撮影画像を画像解析することにより、そのエリアにおける物体の置き去り・持ち去りを検知する技術がある(特許文献1、特許文献3、特許文献4参照)。また、顔撮影カメラ等が撮影した、例えばATMを利用する人物の顔画像を画像解析することにより、最も映りのよい瞬間の顔画像を自動的に選択して記録するベストショット顔画像記録技術がある(特許文献2参照)。
また、監視カメラが撮影したエリア撮影画像を画像解析することにより放置物を検知した場合に、放置物が放置された時刻におけるエリア撮影画像から、放置物周辺の人物の画像を画像解析により抽出し、抽出された人物画像を表示する技術がある(特許文献1参照)。
特開2008−104130号公報 特開2003−046911号公報 特開2005−006164号公報 特開2007−243342号公報
従来では、監視カメラが撮影したエリア撮影画像と顔撮影カメラが撮影した顔撮影画像とを自動的に結びつける手段がないので、エリア撮影カメラにより置き去り・持ち去りを検知しても、顔撮影画像から置き去り・持ち去りを行った人物を特定するのに時間がかかってしまうという課題がある。
監視カメラが撮影したエリア撮影画像から放置物を検知した際に、放置物が検知されたエリア撮影画像から人物画像を抽出する技術はあるが、人物全体像等を検出することはできても人物の顔を大きくはっきりと検出することはできないため、放置した人物を特定することが難しいという課題がある。
本発明は、例えば、上記のような課題を解決するためになされたものであり、不特定多数の人物が出入りするエリアにおいて、物体の置き去り・持ち去りがあった際に、自動的に物体の置き去り・持ち去り等を検知するとともに、当該人物を素早く自動的に特定することができる監視画像記憶システムを提供することを目的とする。
本発明に係る監視画像記憶システムは、
所定のエリアを撮影するエリア撮影カメラと前記所定のエリアに出現する人物の顔を撮影する顔撮影カメラとを備えた監視画像記憶システムであって、
前記エリア撮影カメラが撮影したエリア撮影画像を前記エリア撮影画像が撮影された時刻とともに記憶装置に記憶するエリア撮影画像記憶部と、
前記顔撮影カメラが撮影した顔撮影画像を前記顔撮影画像が撮影された時刻とともに記憶装置に記憶する顔撮影画像記憶部と、
処理装置を用いることにより、前記エリア撮影画像記憶部により記憶されたエリア撮影画像に基づいて前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知するとともに、物体の出現、物体の消失、あるいは物体の状態の変化を検知した場合に検知の根拠としたエリア撮影画像を物体検知画像として特定し、かつ、前記物体検知画像が撮影された時刻を物体検知時刻として特定する物体検知部と、
処理装置を用いることにより、前記物体検知部が特定した前記物体検知時刻より所定の時間さかのぼった時刻から前記物体検知時刻までに撮影された顔撮影画像を前記顔撮影画像記憶部により記憶された顔撮影画像の中から抽出するとともに、抽出した顔撮影画像の中から所定の基準を満たす顔撮影画像を基準合致顔画像として選択する顔検知部と、
前記物体検知部により特定された前記物体検知画像と前記物体検知時刻とを入力するとともに、前記顔検知部により選択された前記基準合致顔画像を入力して、前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて記憶装置に記憶する統合記憶部と
を備えたことを特徴とする。
前記物体検知部は、物体の出現あるいは物体の消失の検知結果に応じて前記所定のエリアおける物体の置き去りあるいは物体の持ち去りを判定することを特徴とする。
前記物体検知部は、前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知した位置を示すマークを前記物体検知画像に付加することを特徴とする。
前記監視画像記憶システムは、さらに、
前記統合記憶部により記憶された前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて表示装置に表示する統合表示部を備えることを特徴とする。
前記統合表示部は、
前記物体検知画像と前記基準合致顔画像とをサムネイル形式で表示することを特徴とする。
前記統合記憶部は、
前記基準合致顔画像とともに前記基準合致顔画像が撮影された時刻を記憶し、
前記監視画像記憶システムは、さらに、
前記所定のエリアに出現した人物から所定の情報を取得する情報取得部と、
前記情報取得部が取得した情報を、前記情報が取得された時刻とともに記憶装置に記憶する情報記憶部と、
前記統合記憶部により記憶された前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを入力して、入力した前記基準合致顔画像が撮影された時刻から過去の所定の範囲に取得された情報を前記情報記憶部により記憶された情報の中から抽出し、抽出した情報と前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを対応付けて記憶装置に記憶する顔画像データベース作成部と
を備えることを特徴とする。
本発明に係る監視画像記憶システムの監視画像記憶方法は、
所定のエリアを撮影するエリア撮影カメラと、前記所定のエリアに出現する人物の顔を撮影する顔撮影カメラと、前記エリア撮影カメラが撮影したエリア撮影画像を前記エリア撮影画像が撮影された時刻とともに記憶装置に記憶するエリア撮影画像記憶部と、前記顔撮影カメラが撮影した顔撮影画像を前記顔撮影画像が撮影された時刻とともに記憶装置に記憶する顔撮影画像記憶部とを備えた監視画像記憶システムの監視画像記憶方法であって、
物体検知部が、処理装置を用いることにより、前記エリア撮影画像記憶部により記憶されたエリア撮影画像に基づいて前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知するとともに、物体の出現、物体の消失、あるいは物体の状態の変化を検知した場合に検知の根拠としたエリア撮影画像を物体検知画像として特定し、かつ、前記物体検知画像が撮影された時刻を物体検知時刻として特定する物体検知ステップと、
顔検知部が、処理装置を用いることにより、前記物体検知ステップにより特定された前記物体検知時刻より所定の時間さかのぼった時刻から前記物体検知時刻までに撮影された顔撮影画像を前記顔撮影画像記憶部により記憶された顔撮影画像の中から抽出するとともに、抽出した顔撮影画像の中から所定の基準を満たす顔撮影画像を基準合致顔画像として選択する顔検知ステップと、
統合記憶部が、前記物体検知ステップにより特定された前記物体検知画像と前記物体検知時刻とを入力するとともに、前記顔検知ステップにより選択された前記基準合致顔画像を入力して、前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて記憶装置に記憶する統合記憶ステップと
を備えたことを特徴とする。
本発明に係る監視画像記憶システムであって、所定のエリアを撮影するエリア撮影カメラと前記所定のエリアに出現する人物の顔を撮影する顔撮影カメラとを備えた監視画像記憶システムによれば、
エリア撮影画像記憶部が、前記エリア撮影カメラが撮影したエリア撮影画像を前記エリア撮影画像が撮影された時刻とともに記憶し、顔撮影画像記憶部が、前記顔撮影カメラが撮影した顔撮影画像を前記顔撮影画像が撮影された時刻とともに記憶し、物体検知部が、前記エリア撮影画像記憶部により記憶されたエリア撮影画像に基づいて前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知するとともに、物体の出現、物体の消失、あるいは物体の状態の変化を検知した場合に検知の根拠としたエリア撮影画像を物体検知画像として特定し、かつ、前記物体検知画像が撮影された時刻を物体検知時刻として特定し、顔検知部が、前記物体検知部が特定した前記物体検知時刻より所定の時間さかのぼった時刻から前記物体検知時刻までに撮影された顔撮影画像を前記顔撮影画像記憶部により記憶された顔撮影画像の中から抽出するとともに、抽出した顔撮影画像の中から所定の基準を満たす顔撮影画像を基準合致顔画像として選択し、統合記憶部が、前記物体検知部により特定された前記物体検知画像と前記物体検知時刻とを入力するとともに、前記顔検知部により選択された前記基準合致顔画像を入力して、前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて記憶する統合記憶部とを備えているので、不特定多数の人物が出入りするエリアにおいて物体の置き去り・持ち去りがあった場合に、自動的に物体の置き去り・持ち去り等を検知するとともに、自動的にかつ迅速に、置き去り・持ち去り等を行った人物を特定する情報を取得することができるという効果を奏する。
実施の形態1.
図1は、本実施の形態に係る置き去り・持ち去り人物特定システム800(画面表示システムの一例)のシステム構成図である。本実施の形態に係る置き去り・持ち去り人物特定システム800は、例えば金融機関等のATM(現金自動預け払い機)エリア30(ATMコーナーともいう)等において利用されるものである。置き去り・持ち去り人物特定システム800は、ATMエリア30における物体の置き去りや持ち去りを検知するとともに、物体の置き去り(放置)や持ち去りを検知した場合に、置き去りや持ち去りに関連する人物の顔画像を記憶して表示するものである。以下の実施の形態では、金融機関等のATMエリア30をエリアの一例として置き去り・持ち去り人物特定システム800の説明をするが、これに限られるわけではない。エリアとしては、例えば、ビルの入退出装置のあるエリアやチケット等の券売機のエリアなど、後述するエリア撮影カメラ300と顔撮影カメラ400とを設置することができる場所であればどこにでも適用することができる。
図1を用いて、置き去り・持ち去り人物特定システム800のシステム構成について説明する。置き去り・持ち去り人物特定システム800は、監視画像記憶システムの一例である。また、ATMエリア30は、エリアの一例である。
例えば、金融機関のATMエリア30には、ATMエリア30全体のエリアを撮影するエリア撮影カメラ300と、ATMエリア30に設置されたATM40を利用する人物10の顔を真正面から撮影する顔撮影カメラ400が設置されている。
本実施の形態に係る置き去り・持ち去り人物特定システム800は、ATMエリア30全体のエリアを撮影するエリア撮影カメラ300と、ATMエリア30に設置されているATM40を利用する人物10の顔部分を撮影する顔撮影カメラ400と、ネットワークカメラ用録画・配信サーバ200と、置き去り・持ち去り人物特定装置100(監視画像記憶装置)とから構成される。
エリア撮影カメラ300は、比較的広画角のカメラであり、対象とするエリア全体の画像を取得するカメラである。エリア撮影カメラ300は、ATMエリア30の天井や壁の上方に、ATMエリア30全体を撮影できるように設置される。例えば、ATM40周辺とATM40周辺の床等を上方から撮影できるように設置される。したがって、エリア撮影カメラ300により撮影されたエリア撮影画像301には、ATM40周辺やATM40周辺の床等に置き去りにされた放置物等の物体20の状況や、放置物等の物体20が持ち去られた場合の状況等が映ることになる。また、エリア撮影画像301には、ATMエリア30に設置してある備品等の設置物の持ち去りや、放置物や設置物の毀損・破壊等の状況が映る可能性もある。あるいは、ATMエリア30への侵入や、ATMエリア30への長時間居座り等の状況も映す可能性がある。エリア撮影カメラ300が撮影したエリア撮影画像301は、ネットワーク500を介して後述するネットワークカメラ用録画・配信サーバ200(例えば、ネカ録)に送信される。
顔撮影カメラ400は、ATMエリア30のATM40を利用する人物10の顔部分を正面から撮影するカメラである。顔撮影カメラ400は、検知精度向上のために、正面に近い画角から、極力大きく顔を映すことのできるカメラである。顔撮影カメラ400は、例えば、ATM40を利用する人物10のほぼ顔の正面であって、ATM40を利用する人物10の顔付近を撮影することができるような高さに設置される。ATM40を利用する場合には、人物10は少なくとも数十秒から数分はATMの前に立って作業する。したがって、顔撮影カメラ400により撮影された顔撮影画像401は、同一の人物10の顔画像が複数枚撮影されることになる。同一の人物10の複数枚の顔撮影画像401は、どれもが必ず正面を向いて顔が判別できる画像であるとは限らない。横を向いたり、下を向いたり、かがんで撮影箇所から見えなくなったりする場合もある。したがって、後述するように、物体20の置き去り・持ち去りが発生したときのエリア撮影画像301と対応付けて顔撮影画像401を表示する場合には、同一の人物10の複数枚の顔撮影画像401の中から、見やすく人物を特定することのできる顔撮影画像(ベストショット画像、基準合致画像)を選択して記憶・表示することが有効である。顔撮影カメラ400が撮影した顔撮影画像401は、ネットワーク500を介して後述するネットワークカメラ用録画・配信サーバ200に送信される。
ネットワークカメラ用録画・配信サーバ200は、エリア撮影カメラ300が撮影したエリア撮影画像301と顔撮影カメラ400が撮影した顔撮影画像401とをネットワーク500を介して受信して記憶する。エリア撮影画像301は、ATMエリア30を撮影した時刻(エリア撮影時刻)とともにネットワークカメラ用録画・配信サーバ200に記憶される。顔撮影画像401は、人物10の顔を撮影した時刻(顔撮影時刻)とともにネットワークカメラ用録画・配信サーバ200に記憶される。あるいは、エリア撮影画像301、顔撮影画像401は、ネットワークカメラ用録画・配信サーバ200に保存された時刻(保存時刻)とともにネットワークカメラ用録画・配信サーバ200に記憶されるとしてもよい。しかし、ネットワーク500の障害等により、撮影時刻と保存時刻とが食い違う場合が考えられるので、画像の撮影時刻とともに画像を記憶する方が好ましい。
置き去り・持ち去り人物特定装置100は、ネットワークカメラ用録画・配信サーバ200からネットワーク500を介してエリア撮影画像301と顔撮影画像401とを入力する。置き去り・持ち去り人物特定装置100は、エリア撮影画像301を画像解析することにより、ATMエリア30における物体20の置き去り・持ち去りを検知する。そして、置き去り・持ち去り人物特定装置100は、物体20の物体の出現、物体の消失、あるいは物体の状態の変化(例えば、置き去り・持ち去り等)を検知した場合に、検知の根拠となったエリア撮影画像301が撮影された時刻付近(近辺)の時刻に撮影された顔撮影画像401を抽出して、抽出した顔撮影画像401から所定の基準を満たす顔撮影画像401(基準合致顔画像(ベストショット画像ともいう))を選択する。選択するベストショット画像の数(表示数)は、予め、置き去り・持ち去り人物特定装置100の備える記憶装置に記憶しておき、記憶した表示数分のベストショット画像を選択する。置き去り・持ち去り人物特定装置100は、物体20の置き去り・持ち去りを検知した際に検知の根拠となったエリア撮影画像301と、そのエリア撮影画像301が撮影されたエリア撮影時刻と、選択したベストショット画像とを対応付けて、記憶装置に記憶し、さらに、表示装置に表示する。
図2は、実施の形態1に係るネットワークカメラ用録画・配信サーバ200の機能ブロック構成図である。図2を用いて、ネットワークカメラ用録画・配信サーバ200の機能ブロック構成について説明する。
ネットワークカメラ用録画・配信サーバ200は、エリア撮影画像記憶部201、顔撮影画像記憶部202、制御部203、処理装置204(例えば、CPU(Central Processing Unit))、記憶装置205を備えている。エリア撮影画像記憶部201は、エリア撮影カメラ300が撮影したエリア撮影画像301を撮影時刻(エリア撮影時刻302)とともに記憶装置205に記憶する。顔撮影画像記憶部202は、顔撮影カメラ400が撮影した顔撮影画像401を撮影時刻(顔撮影時刻402)とともに記憶装置205に記憶する。以下、「エリア撮影画像記憶部201、顔撮影画像記憶部202が記憶する」と記載する場合は、エリア撮影画像記憶部201、顔撮影画像記憶部202が記憶装置205に記憶することを意味するものとする。また、エリア撮影画像301とエリア撮影時刻302との情報を併せてエリア撮影画像情報303、顔撮影画像401と顔撮影時刻402との情報を併せて顔撮影画像情報403と呼ぶものとする。
制御部203は、エリア撮影画像情報303と顔撮影画像情報403とを所定の割合で置き去り・持ち去り人物特定装置100へ送信する。例えば、制御部203は、エリア撮影画像情報303と顔撮影画像情報403とを6fps(Frame Per Second)の割合で置き去り・持ち去り人物特定装置100へ送信する。あるいは、エリア撮影画像情報303を6fpsの割合で、顔撮影画像情報403を2fpsの割合で置き去り・持ち去り人物特定装置100へ送信するとしてもよい。あるいは、制御部203は、置き去り・持ち去り人物特定装置100からの送信要求を受信した場合に、エリア撮影画像情報303と顔撮影画像情報403とを送信するとしてもよい。
図3は、実施の形態1に係る置き去り・持ち去り人物特定装置100の機能ブロック構成図である。図3を用いて、置き去り・持ち去り人物特定装置100の機能ブロック構成について説明する。置き去り・持ち去り人物特定装置100は、画像取得・デコード部110、統合表示アプリ部120、物体検知部130、顔検知部140、記憶装置150、処理装置160、表示装置170を備えている。
画像取得・デコード部110は、ネットワークカメラ用録画・配信サーバ200からエリア撮影画像情報303と顔撮影画像情報403とを取得してデコード(復号)する。画像取得・デコード部110は、入力されたエリア撮影画像情報303と顔撮影画像情報403とに対し、6fpsをベースとしたデコードを行う。そして、画像取得・デコード部110は、デコードしたエリア撮影画像情報303と顔撮影画像情報403とを、顔撮影画像情報403は毎回(6fps)、エリア撮影画像情報303は3回に1回(すなわち、2fps相当)、統合表示アプリ部120に出力する。画像取得・デコード部110の処理におけるデコードのベースや、画像の出力回数は、上述した数に限られず、システムとして自在に設定可能である。
統合表示アプリ部120は、画像取得・デコード部110からデコード済みのエリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)と顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)とを入力する。上述したように、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)は6fpsの割合で、エリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)は2fpsの割合で入力されるものとする。統合表示アプリ部120は、例えば、入力したエリア撮影画像301と顔撮影画像401とをライブ画像として表示装置170に表示してもよい。それとともに、統合表示アプリ部120は、エリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)を物体検知部130に出力する。
また、統合表示アプリ部120は、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を記憶装置150に一旦記憶する。統合表示アプリ部120は、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)をすべて記憶する必要はなく、所定の時間分の顔撮影画像情報403を記憶しておき、古い時刻の顔撮影画像情報403から消去していく。あるいは、統合表示アプリ部120は、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を顔検知部140に出力し、顔検知部140において入力した顔撮影画像情報403を記憶装置150に一旦記憶するとしてもよい。この場合も同様に、顔検知部140は、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)をすべて記憶する必要はなく、所定の時間分の顔撮影画像情報403を記憶し、古い時刻の顔撮影画像情報403から消去していく。実施の形態1では、統合表示アプリ部120が、所定の時間分の顔撮影画像情報403を記憶装置150に記憶するものとする。
統合表示アプリ部120は、例えば、置き去り・持ち去り人物特定処理を行うと同時に、入力したエリア撮影画像301と顔撮影画像401とをライブ画像として表示装置170に表示してもよい。あるいは、統合表示アプリ部120は、例えば、置き去り・持ち去り人物特定システム800のユーザにより指定された過去の時刻からの画像をネットワークカメラ用録画・配信サーバ200から受信して、過去の画像として表示装置170に表示してもよい。
統合表示アプリ部120は、例えば、入力したエリア撮影画像301と顔撮影画像401とをライブ画像として表示装置170に表示する際に、現在時刻とエリア撮影時刻302と顔撮影時刻402とを同期させて表示する。あるいは、統合表示アプリ部120は、ユーザにより指定された過去の時刻からの画像を表示させる場合にも、エリア撮影時刻302と顔撮影時刻402とを同期させて表示する。
物体検知部130は、統合表示アプリ部120からエリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)とを入力して、入力したエリア撮影画像301に基づいて、ATMエリア30における物体20の出現、物体20の消失、あるいは物体20の状態の変化(例えば、置き去り・持ち去り等)を検知するとともに、物体20の出現、物体20の消失、あるいは物体20の状態の変化を検知した場合に検知の根拠としたエリア撮影画像301を物体検知画像132として特定し、物体検知画像132が撮影された時刻を物体検知時刻133として特定して統合表示アプリ部120に出力する。
物体検知部130は、エリア撮影画像301に映された検知エリア(ATMエリア30)の画像に対して、背景差分等の手法を用いた画像解析をすることにより、物体20の置き去り・持ち去り等を検知する。置き去り検知とは、ATMエリア30等の検知エリアにおいて、置き去りの条件に合致する物体20が一定時間同じ場所に止まっている場合に検知するものである。持ち去り検知とは、ATMエリア30等の検知エリアから持ち去りの条件に合致する物体が持ち去られて一定時間以上経過した場合に検知するものである。
物体検知部130は、物体20の置き去り・持ち去りを検知すると、検知した際のエリア撮影画像301に対して、物体20の置き去り・持ち去りを検知した位置を示すマークを付加した画像を物体検知画像132とし、その画像の撮影時刻を物体検知時刻133として、物体検知画像132と物体検知時刻133とを物体検知結果131として統合表示アプリ部120に出力する。
記憶装置150には、予めディレイタイム151が記憶されている。ディレイタイム151は、所定の時間の一例である。ディレイタイム151は、置き去り・持ち去り人物特定システム800のシステム値として予め適切な値に設定される必要がある。ディレイタイム151を適切な値に設定することにより、検知精度を向上させることができる。ディレイタイム151は、例えば、エリアのシチュエーション(ATMエリア、建物の入退出エリア等)に応じた人物の推定滞在時間と、物体検知部130による置き去り・持ち去り検知処理に用いる一定時間とに基づいて、最も適切な値に決められる。したがって、ディレイタイム151は、置き去り・持ち去り人物特定システム800が稼働するエリアのシチュエーションや、置き去り・持ち去り処理の処理内容(主に、一定時間)等の状況により、異なる値が設定されることになる。その他、ディレイタイム151の設定方法(算出方法)については、例えば、エリアの時間帯による混雑状況等の影響を数値化してディレイタイム151算出のパラメータとしてもよい。
統合表示アプリ部120は、物体検知部130から物体検知結果131として物体検知画像132と物体検知時刻133を入力すると、入力した物体検知時刻133からディレイタイム151さかのぼった時刻から物体検知時刻133までに撮影された顔撮影画像401を含む顔撮影画像情報403を記憶装置150から抽出する。つまり、物体検知時刻133からディレイタイム151さかのぼった時刻から物体検知時刻133までの時刻の間の時刻と一致する顔撮影時刻402を有する顔撮影画像401を記憶装置150から抽出する。統合表示アプリ部120は、抽出した複数の顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を顔検知用画像情報141として顔検知部140に出力する。
本実施の形態では、統合表示アプリ部120が、物体検知時刻133から過去のディレイタイム151時間の範囲に撮影された顔撮影画像情報403を抽出したが、顔検知部140が、物体検知時刻133を入力して、入力した物体検知時刻133よりディレイタイム151(所定の時間)さかのぼった時刻から物体検知時刻133までに撮影された複数の顔撮影画像401を抽出してもよい。
顔検知部140は、抽出した顔撮影画像401の中から、所定の基準を満たす顔撮影画像401を選択して、選択した顔撮影画像401を基準合致顔画像142として出力する。顔検知部140は、例えば、顔の向きや大きさ、明るさ等を総合的に判断して、最も映りのよい顔画像を高速に選択記録する技術である「ベストショット顔画像記録技術」等を用いて、複数の顔撮影画像401のなかから、基準合致顔画像142を選択して統合表示アプリ部120に出力する。
統合表示アプリ部120は、顔検知部140から基準合致顔画像142を入力すると、物体検知時刻133と物体検知画像132と基準合致顔画像142とを対応付けて、記憶装置150に記憶する。統合表示アプリ部120は、統合記憶部の一例である。また、統合表示アプリ部120は、記憶した物体検知時刻133と物体検知画像132と基準合致顔画像142とを対応付けて表示装置170に表示する。統合表示アプリ部120は、統合表示部の一例である。表示方法の詳細については後述する。
図4は、実施の形態1に係る置き去り・持ち去り人物特定装置100の処理を示すフロー図である。図4を用いて置き去り・持ち去り人物特定装置100の置き去り・持ち去り人物特定処理について説明する。
<デコード済み画像入力処理>
統合表示アプリ部120は、デコード済みのエリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)と顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)とを画像取得・デコード部110から入力する。このとき、画像取得・デコード部110は、処理装置160を用いて、エリア撮影画像情報303と顔撮影画像情報403とに対し、6fpsをベースとしたデコードを行う。画像取得・デコード部110は、デコード済みの顔撮影画像情報403は毎回(6fps相当)、デコード済みのエリア撮影画像情報303は3回に1回(すなわち、2fps相当)、統合表示アプリ部120にデコードしたエリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)と顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)とを出力する。
<S121:ライブ画像表示処理>
統合表示アプリ部120は、画像取得・デコード部110から入力したエリア撮影画像301と顔撮影画像401とをライブ画像として表示装置170に表示する。また、統合表示アプリ部120は、置き去り・持ち去り人物特定システム800のユーザにより指定された時刻(過去の時刻)からの過去のライブ画像として、エリア撮影画像301と顔撮影画像401とを表示装置170に表示するとしてもよい。
図5は、実施の形態1に係る置き去り・持ち去り人物特定装置100の表示方法の一例を示す図である。図5に示すように、表示装置170には、エリア撮影ライブ画像154と顔撮影ライブ画像152とが表示される。統合表示アプリ部120は、入力したエリア撮影画像301をエリア撮影ライブ画像154として表示装置170に表示する。また、統合表示アプリ部120は、入力した顔撮影画像401を顔撮影ライブ画像152として表示装置170に表示する。このとき統合表示アプリ部120は、入力したエリア撮影時刻302と顔撮影時刻402とを画像と併せて表示装置170に表示してもよい。統合表示アプリ部120は、現在時刻とエリア撮影時刻302と顔撮影時刻402とを処理装置160により同期させて表示装置170表示する。あるいは、統合表示アプリ部120は、ユーザにより指定された過去の時刻のエリア撮影画像301と顔撮影画像401とを表示装置170に表示する場合にも、表示する時刻とエリア撮影時刻302と顔撮影時刻402とを処理装置160により同期させて表示する。物体検知結果リスト153の詳細な説明は、後述する。
<S122:画像情報出力・記憶処理>
図4に戻り説明を続ける。統合表示アプリ部120は、表示装置170にエリア撮影ライブ画像154と顔撮影ライブ画像152とを表示する(S121)とともに、エリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)を物体検知部130に出力する。また、統合表示アプリ部120は、顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を記憶装置150に記憶する。記憶装置150には、記憶装置150に記憶する顔撮影画像情報403の時間の範囲(記録可能時間)が予め設定されている。したがって、統合表示アプリ部120は、新たに顔撮影画像情報403を記憶装置150に記憶する度に、最も古い時刻の顔撮影画像情報403を記憶装置150から削除する。この記録可能時間は、置き去り・持ち去り人物特定システム800で予め設定された時間であり、例えば、ディレイタイム151と同一の時間でもよい。あるいは、ディレイタイム151以上の時間を設定してもよい。
<S131〜S134:物体検知処理>
物体検知部130は、統合表示アプリ部120からエリア撮影画像情報303(エリア撮影画像301とエリア撮影時刻302)を入力して(S131)、物体検知処理(S132)を行う。
物体検知部130は、処理装置160により物体20の置き去り・持ち去り(物体の出現、物体の消失、あるいは物体の状態の変化を含む)を検知した場合には、検知に用いた(検知の根拠となった)エリア撮影画像301に、物体20の置き去り・持ち去りを検知した位置を示すマークを処理装置160により付加する。例えば、ATMエリア30に忘れ物をした人物がいて、その忘れ物を物体検知部130が物体20の置き去りとして検知したとする。この場合、物体検知部130は、処理装置160により、エリア撮影画像301上で、その忘れ物を囲むための枠(マークの一例)の画像をエリア撮影画像301に処理装置160により付加する。物体検知部130は、マークを付加したエリア撮影画像301を物体検知画像132と特定する。また物体検知部130は、物体検知画像132が撮影された時刻(すなわち、該当するエリア撮影画像301が撮影された時刻(エリア撮影時刻302))を物体検知時刻133と特定する。
物体検知部130は、物体20の置き去り・持ち去りを検知しない場合は(S133でNO)、S131に戻り処理を続ける。また、物体検知部130は、物体20の置き去り・持ち去りを検知した場合、すなわち、物体検知画像132と物体検知時刻133とを特定した場合には(S133でYES)、S134に処理をすすめる。
物体検知部130は、特定した物体検知画像132と物体検知時刻133とを物体検知結果131として統合表示アプリ部120に出力する(S134)。
<S123〜S124:顔検知用画像情報取得処理>
統合表示アプリ部120は、物体検知部130より物体検知画像132と物体検知時刻133とを含む物体検知結果131を入力する(S123)。統合表示アプリ部120は、入力した物体検知時刻133に基づいて、記憶装置150に記憶した顔撮影画像情報403を取得する。つまり、統合表示アプリ部120は、処理装置を用いて、物体検知時刻133よりディレイタイム151(所定の時間)分過去にさかのぼった時刻から、物体検知時刻133までの間に撮影された顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を記憶装置150から抽出する。統合表示アプリ部120は、抽出した複数の顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を顔検知用画像情報141として顔検知部140に出力する。
<S142〜S143:基準合致顔画像選択処理(ベストショット顔画像選択処理)>
顔検知部140は、統合表示アプリ部120から、物体検知時刻133より過去にディレイタイム151分だけさかのぼった範囲に撮影された複数の顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を顔検知用画像情報141として入力する。顔検知部140は、入力した顔検知用画像情報141の中から所定の基準を満たす顔画像を基準合致顔画像142として処理装置160により選択する。顔検知部140は、選択した基準合致顔画像142を統合表示アプリ部120に出力する。
顔検知部140は、例えば、顔の向きや大きさ、明るさ等を総合的に判断して、最も映りのよい顔画像を高速に選択記録する技術である「ベストショット顔画像記録技術」等を用いて、複数の顔撮影画像401のなかから、基準合致顔画像142(ベストショット顔画像)を選択する。顔検知部140は、多くとも所定の数以下の基準合致顔画像142を選択する。例えば、置き去り・持ち去り人物特定システム800として、基準合致顔画像142を最大4つ表示すると設定されているとする。顔検知部140は、複数の顔撮影画像401なかから処理装置160によりベストショット顔画像記録技術を用いて、所定に基準を満たし、かつ、最も映りのよい顔画像(最良顔画像)から4番目までに入っている顔撮影画像401を選択する。したがって、所定の基準を満たす顔撮影画像が3つしかない場合には、3つの基準合致顔画像142を出力する。また、所定の基準を満たす顔撮影画像が4つ以上ある場合には、最良から4番目までの顔撮影画像を選択する。また、所定の基準を満たす顔撮影画像が無かった場合には、例えば、所定の基準から外れてはいるが、その中でも一番所定の基準に近い顔撮影画像を1つ(あるいは数個)選択するとしてもよい。
図6は、実施の形態1に係る放置物A21の置き去りの物体検知時刻a133aと設定したディレイタイム151と顔検知処理との関係を模式化した図である。図6において、放置物A21を検知した場合の顔検知部の処理について説明する。
物体検知部130は、エリア撮影画像301に放置物A21を検知すると(S60)、そのエリア撮影画像301を物体検知画像a132aと特定する。そして、その物体検知画像a132aにおける放置物A21の位置を示すための枠22(マーク)を物体検知画像a132aに付与して、物体検知時刻a133aとともに統合表示アプリ部120に出力する。統合表示アプリ部120は、放置物A21を検知した物体検知時刻a133aから過去にディレイタイム151(ここでは、20s(秒)とする)分さかのぼった時刻(抽出開始時刻134)から、物体検知時刻a133aまでの間に、撮影された顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を記憶装置150から抽出する。
顔撮影画像403が6fpsで撮影されている場合には、ディレイタイム151が20秒であるので120個の画像を抽出することになる。統合表示アプリ部120は、抽出した120個の顔撮影画像情報403(顔撮影画像401と顔撮影時刻402)を顔検知用画像情報141として顔検知部140に出力する。顔検知部140は、統合表示アプリ部120から顔検知用画像情報141(120個の顔撮影画像情報403(顔撮影画像401と顔撮影時刻402))を入力して、入力した顔撮影画像401の中から所定の基準に合致する顔撮影画像401を選択する。つまり、顔検知部140は、顔検知用画像情報141に含まれる120個の顔撮影画像401に対して「ベストショット顔画像記録技術」等を用いて画像解析を行い、顔の向きや大きさ、明るさ等を考慮して映りの良さの順序づけを行う。そして、顔検知部140は、予め設定されている数のベストショット画像を、顔検知用画像情報141に含まれる120個の顔撮影画像401の中から選択する。ここでは、予め設定されている数は、4個であるが、ベストショット画像(すなわち、基準合致顔画像)として基準合致顔画像142aと基準合致顔画像142bとの2枚が選択されている。これは、上述したように所定の基準に満たないものは、選択しないと設定されているためである。顔検知部140は、120個の顔撮影画像の中から選択した基準合致顔画像142a,142bを、当該基準合致顔画像142a,142bが撮影された時刻とともに統合表示アプリ部120に出力する。
<S125〜S126:画像情報記憶・表示処理>
図4に戻り説明を続ける。統合表示アプリ部120は、顔検知部140から顔検知部140により選択された基準合致顔画像142a,142bとを入力する。統合表示アプリ部120は、S132において特定した物体検知時刻156と物体検知画像157と、入力した基準合致顔画像142(142a,142b)とを対応付けて、物体検知結果情報158として記憶装置150に記憶する。ここで、統合表示アプリ部120は統合記憶部の一例である。
統合表示アプリ部120は、記憶装置150に記憶されている物体検知結果情報158(物体検知時刻133と物体検知画像132と基準合致顔画像142(142a,142b)を表示装置170に表示する。
次に、図5を用いて、置き去り・持ち去り人物特定システム800の表示方法の一例について説明する。図5に示すように、置き去り・持ち去り人物特定装置100の表示装置170では、物体検知結果情報158(158a,158b,158c)は、物体検知結果リスト153として、最大3つまで表示できるように設定されている。物体検知結果情報158(158a,158b158c)は、表示画面の上から下へと時間が進むように表示される。これは、逆でも構わないし、表示画面の横方向に時間が進むように設定されていても構わない。
上述したように、表示装置170の表示画面上部には、エリア撮影ライブ画像154と顔撮影ライブ画像152とが表示される。例えば、エリア撮影ライブ画像154と顔撮影ライブ画像152との画像の一部に、それぞれの画像が撮影された時刻を表示してもよい。
図5に示すように、表示装置170には、物体検知時刻133と物体検知画像132と基準合致顔画像142(142a,142b)とが対応付けられて物体検知結果情報158aとして表示される。これは、「2008年9月12日の19時43分50秒」(物体検知時刻133)に放置物A21が検知され(物体検知画像132)、19時43分30秒から19時43分50秒までの間にATM40を利用した人物10の基準合致顔画像142a,142bが表示されていることを意味している。このとき、物体検知画像132と基準合致顔画像142a,142bとはサムネイル形式で表示されている。表示装置170では、スライドスイッチ155により画面をスライドして過去の物体検知結果情報158から最新の物体検知結果情報158までのすべての物体検知結果情報158を閲覧できるようになっている。
実施の形態1に係る置き去り・持ち去り人物特定システム800によれば、ATMエリア30のようなエリアを撮影するエリア撮影カメラ300と、エリアに出現する人物10の顔を撮影する顔撮影カメラ400とを備えているので、2台のカメラをそれぞれの用途にあった適切な画角で設置することにより、飛躍的に検知精度を向上することができる。
また、実施の形態1に係る置き去り・持ち去り人物特定システム800によれば、物体検知時刻133と物体検知画像132と基準合致顔画像142とを対応付けて記憶装置150に記憶するので、エリアにおける落とし物、忘れ物、紛失物、設置物の破壊、侵入、居すわり、いたずら等の出来事を自動的に検出するとともに、その時刻付近にATM40を利用していた人物を特定することができる精度の顔画像を検出することができるので、顧客サービスや安全管理を向上させることができる。
また、実施の形態1に係る置き去り・持ち去り人物特定システム800によれば、物体検知時刻133と物体検知画像132と基準合致顔画像142とを対応付けて表示装置170にサムネイル形式で表示するので、システム管理者等は表示装置により迅速に判断することができる。
実施の形態2.
本実施の形態では、実施の形態1において取得した基準合致顔画像142に対して、基準合致顔画像142の人物10の情報を対応させて、顔画像データベース190を作成する置き去り・持ち去り人物特定システム800について説明する。
図7は、実施の形態2に係る置き去り・持ち去り人物特定システム800のシステム構成図である。図7は、実施の形態1で説明した図1の置き去り・持ち去り人物特定システム800のシステム構成に加えて、人物情報データベース600を備えている。ここでは、図1で説明したものと同一の構成については同一の符号を付し、その説明を省略する。人物情報データベース600は、情報記憶部の一例である。また、ATM40は、情報取得部の一例である。
通常、ATM40(情報取得部の一例)では、人物10はキャッシュカード等をATM40に投入して現金の出し入れや預金の確認等を行う。この際、ATM40では、人物10の情報として、例えば、カード情報やカード情報に紐付けられたその他の個人情報を取得することができる。以下、これらの情報を人物情報602と呼ぶ。
ここで、情報取得部は、ATM40に限られない。例えば、情報取得部は、RFID(Radio Frequency Identification)受信装置等から構成される入退出装置などでもよい。情報取得部が建物の入退出装置である場合は、建物の入退出ゲートには、入退出ゲートのエリアを撮影するように配置されたエリア撮影カメラ300と、入退出する人物の顔部分を撮影するように配置された顔撮影カメラ400とが設置される。また、予め登録された社員証や会員カードのようなIDを発信するRFID等を所持した人物が入退出すると、ゲートに設置されたRFID受信装置が情報取得部として、社員IDや会員ID等を受信して人物情報を取得することができる。あるいは携帯電話等からIDを取得するものとしてもよい。このように、エリアや情報取得部は、ATMエリア30やATM40に限られないが、実施の形態2では説明の便利のため、ATMエリア30のATM40を利用する人物10の人物情報を取得する場合について説明する。
ATM40で取得した人物情報602は、例えばネットワーク500を介して人物情報データベース600に蓄積される。人物情報データベース600は、例えば、銀行や金融機関の顧客管理DB等であってもよい。人物情報データベース600には、人物情報602を取得した人物情報取得時刻601と人物情報602とが対応付けられて蓄積される。
図8は、実施の形態2に係る置き去り・持ち去り人物特定装置100の機能ブロック図である。図8は、実施の形態1で説明した図3の置き去り・持ち去り人物特定装置100の機能ブロックに加えて、顔画像データベース作成部180と顔画像データベース190とを備えている。ここでは、図3で説明した機能ブロックと同一の機能ブロックについては同一の符号を付し、その説明を省略する。
統合表示アプリ部120(統合記憶部)は、物体検知結果情報158として、物体検知時刻133と物体検知画像132と基準合致顔画像142とを対応付けて物体検知結果情報158として記憶装置150に記憶する。このとき、それぞれの基準合致顔画像142(すなわち、基準合致顔画像142a,基準合致顔画像142b)の撮影された時刻(以下、基準合致顔画像撮影時刻143と呼ぶ)も記憶するものとする。
顔画像データベース作成部180は、記憶装置150に統合表示アプリ部120(統合記憶部)により記憶された基準合致顔画像142と当該基準合致顔画像142が撮影された時刻である基準合致顔画像撮影時刻143とを入力する。顔画像データベース作成部180は、入力した基準合致顔画像撮影時刻143から過去の所定の範囲に取得された人物情報602を人物情報データベース600(情報記憶部)に記憶された人物情報602の中から抽出する。顔画像データベース作成部180は、抽出した人物情報602と基準合致顔画像142と基準合致顔画像撮影時刻143とを対応付けて顔画像データベース190に記憶する。
顔画像データベース作成部180は、基準合致顔画像142が複数ある場合(例えば、基準合致顔画像142として基準合致顔画像142aと基準合致顔画像142bとが記憶されている場合)は、その中で最良の画像を選択して顔画像データベース190に記憶する。顔画像データベース190は、記憶装置150に顔画像データベース190として記憶されてもよいし、置き去り・持ち去り人物特定装置100の備える別の記憶機器に記憶されても構わない。
実施の形態2に係る置き去り・持ち去り人物特定システム800によれば、エリアを利用した人物の最良の顔撮影画像とその人物の人物情報とを、顔画像データベースとして蓄積することができるので、顧客サービスを向上させることができる。
上述した実施の形態1〜2の説明において、置き去り・持ち去り人物特定装置100における画像取得・デコード部110、統合表示アプリ部120、物体検知部130、顔検知部140、顔画像データベース部180は、それぞれ独立した機能ブロックとして構成されているが、ひとつの機能ブロックとしてもよい。あるいは、画像取得・デコード部110と統合表示アプリ部120と顔画像データベース作成部180とをまとめてひとつの機能ブロックとし、物体検知部130と顔検知部140とをまとめてひとつの機能ブロックとしてもよい。あるいは、これらの機能ブロックを、他のどのような組み合わせで構成しても構わない。
図9は、置き去り・持ち去り人物特定装置100の外観の一例を示す図である。
図9において、置き去り・持ち去り人物特定装置100は、システムユニット910、CRT(Cathode・Ray・Tube)やLCD(液晶)の表示画面を有する表示装置901、キーボード902(Key・Board:K/B)、マウス903、FDD904(Flexible・Disk・ Drive)、コンパクトディスク装置905(CDD)、プリンタ装置906、スキャナ装置907などのハードウェア資源を備え、これらはケーブルや信号線で接続されている。
システムユニット910は、コンピュータであり、ファクシミリ機932、電話器931とケーブルで接続され、また、ローカルエリアネットワーク942(LAN)、ゲートウェイ941を介してインターネット940に接続されている。
図10は、置き去り・持ち去り人物特定装置100のハードウェア資源の一例を示す図である。
図10において、置き去り・持ち去り人物特定装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、スキャナ装置907、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置あるいは記憶部の一例である。
通信ボード915、キーボード902、スキャナ装置907、FDD904などは、入力部、入力装置の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力部、出力装置の一例である。
通信ボード915は、ファクシミリ機932、電話器931、LAN942等に接続されている。通信ボード915は、LAN942に限らず、インターネット940、ISDN等のWAN(ワイドエリアネットワーク)などに接続されていても構わない。インターネット940或いはISDN等のWANに接続されている場合、ゲートウェイ941は不用となる。
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。
上記プログラム群923には、以下に述べる実施の形態の説明において「〜部」、「〜手段」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、以下に述べる実施の形態の説明において、「〜の判定結果」、「〜の計算結果」、「〜の処理結果」として説明する情報やデータや信号値や変数値やパラメータが、「〜ファイル」、「〜データベース」、「〜データ」の各項目として記憶されている。「〜ファイル」、「〜データベース」、「〜データ」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリになどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、以下に述べる実施の形態の説明において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disk)等の記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
また、以下に述べる実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「手段」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、以下に述べる「〜部」としてコンピュータを機能させるものである。あるいは、以下に述べる「〜部」の手順や方法をコンピュータに実行させるものである。
本実施の形態に係る置き去り・持ち去り人物特定システム800(画面表示システムの一例)のシステム構成図である。 実施の形態1に係るネットワークカメラ用録画・配信サーバ200の機能ブロック構成図である。 実施の形態1に係る置き去り・持ち去り人物特定装置100の機能ブロック構成図である。 実施の形態1に係る置き去り・持ち去り人物特定装置100の主な処理を示すフロー図である。 実施の形態1に係る置き去り・持ち去り人物特定装置100の表示方法の一例を示す図である。 実施の形態1に係る放置物A21の置き去りの検知時刻133aと設定したディレイタイム151と顔検知処理との関係を模式化した図である。 実施の形態2に係る置き去り・持ち去り人物特定システム800のシステム構成図である。 実施の形態2に係る置き去り・持ち去り人物特定装置100の機能ブロック図である。 置き去り・持ち去り人物特定装置100の外観の一例を示す図である。 置き去り・持ち去り人物特定装置100のハードウェア資源の一例を示す図である。
符号の説明
10 人物、20 物体、21 放置物A、22 枠、30 ATMエリア、40 ATM、100 置き去り・持ち去り人物特定装置、110 画像取得・デコード部、120 統合表示アプリ部、130 物体検知部、131 物体検知結果、132 物体検知画像、132a 物体検知画像a、133 物体検知時刻、133a 物体検知時刻a、134 抽出開始時刻、140 顔検知部、141 顔検知用画像情報、142,142a,142b 基準合致顔画像、143 基準合致顔画像撮影時刻、150 記憶装置、151 ディレイタイム、152 顔撮影ライブ画像、153 物体検知結果リスト、154 エリア撮影ライブ画像、155 スライドスイッチ、158,158a,158b,158c 物体検知結果情報、160 処理装置、170 表示装置、180 顔画像データベース作成部、190 顔画像データベース、200 ネットワークカメラ用録画・配信サーバ、201 エリア撮影画像記憶部、202 顔撮影画像記憶部、203 制御部、204 処理装置、205 記憶装置、300 エリア撮影カメラ、301 エリア撮影画像、302 エリア撮影時刻、303 エリア撮影画像情報、400 顔撮影カメラ、401 顔撮影画像、402 顔撮影時刻、403 顔撮影画像情報、500 ネットワーク、600 人物情報データベース、601 人物情報取得時刻、602 人物情報、800 置き去り・持ち去り人物特定システム、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、910 システムユニット、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群、931 電話器、932 ファクシミリ機、940 インターネット、941 ゲートウェイ、942 LAN。

Claims (6)

  1. 所定のエリアを撮影するエリア撮影カメラと前記所定のエリアに出現する人物の顔を撮影する顔撮影カメラとを備えた監視画像記憶システムであって、
    前記エリア撮影カメラが撮影したエリア撮影画像を前記エリア撮影画像が撮影された時刻とともに記憶装置に記憶するエリア撮影画像記憶部と、
    前記顔撮影カメラが撮影した顔撮影画像を前記顔撮影画像が撮影された時刻とともに記憶装置に記憶する顔撮影画像記憶部と、
    処理装置を用いることにより、前記エリア撮影画像記憶部により記憶されたエリア撮影画像に基づいて前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知するとともに、物体の出現、物体の消失、あるいは物体の状態の変化を検知した場合に検知の根拠としたエリア撮影画像を物体検知画像として特定し、かつ、前記物体検知画像が撮影された時刻を物体検知時刻として特定する物体検知部と、
    処理装置を用いることにより、前記物体検知部が特定した前記物体検知時刻より所定の時間さかのぼった時刻から前記物体検知時刻までに撮影された顔撮影画像を前記顔撮影画像記憶部により記憶された顔撮影画像の中から抽出するとともに、抽出した顔撮影画像の中から所定の基準を満たす顔撮影画像を基準合致顔画像として選択する顔検知部と、
    前記物体検知部により特定された前記物体検知画像と前記物体検知時刻とを入力するとともに、前記顔検知部により選択された前記基準合致顔画像を入力して、前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて記憶装置に記憶する統合記憶部と
    を備え
    前記統合記憶部は、
    前記基準合致顔画像とともに前記基準合致顔画像が撮影された時刻を記憶し、
    前記監視画像記憶システムは、さらに、
    前記所定のエリアに出現した人物から所定の情報を取得する情報取得部と、
    前記情報取得部が取得した情報を、前記情報が取得された時刻とともに記憶装置に記憶する情報記憶部と、
    前記統合記憶部により記憶された前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを入力して、入力した前記基準合致顔画像が撮影された時刻から過去の所定の範囲に取得された情報を前記情報記憶部により記憶された情報の中から抽出し、抽出した情報と前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを対応付けて記憶装置に記憶する顔画像データベース作成部と
    を備えたことを特徴とする監視画像記憶システム。
  2. 前記物体検知部は、物体の出現あるいは物体の消失の検知結果に応じて前記所定のエリアおける物体の置き去りあるいは物体の持ち去りを判定することを特徴とする請求項1に記載の監視画像記憶システム。
  3. 前記物体検知部は、前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知した位置を示すマークを前記物体検知画像に付加することを特徴とする請求項1に記載の監視画像記憶システム。
  4. 前記監視画像記憶システムは、さらに、
    前記統合記憶部により記憶された前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて表示装置に表示する統合表示部を備えることを特徴とする請求項1〜3のいずれかに記載の監視画像記憶システム。
  5. 前記統合表示部は、
    前記物体検知画像と前記基準合致顔画像とをサムネイル形式で表示することを特徴とする請求項4に記載の監視画像記憶システム。
  6. 所定のエリアを撮影するエリア撮影カメラと、前記所定のエリアに出現する人物の顔を撮影する顔撮影カメラと、前記エリア撮影カメラが撮影したエリア撮影画像を前記エリア撮影画像が撮影された時刻とともに記憶装置に記憶するエリア撮影画像記憶部と、前記顔撮影カメラが撮影した顔撮影画像を前記顔撮影画像が撮影された時刻とともに記憶装置に記憶する顔撮影画像記憶部とを備えた監視画像記憶システムの監視画像記憶方法であって、
    物体検知部が、処理装置を用いることにより、前記エリア撮影画像記憶部により記憶されたエリア撮影画像に基づいて前記所定のエリアにおける物体の出現、物体の消失、あるいは物体の状態の変化を検知するとともに、物体の出現、物体の消失、あるいは物体の状態の変化を検知した場合に検知の根拠としたエリア撮影画像を物体検知画像として特定し、かつ、前記物体検知画像が撮影された時刻を物体検知時刻として特定する物体検知ステップと、
    顔検知部が、処理装置を用いることにより、前記物体検知ステップにより特定された前記物体検知時刻より所定の時間さかのぼった時刻から前記物体検知時刻までに撮影された顔撮影画像を前記顔撮影画像記憶部により記憶された顔撮影画像の中から抽出するとともに、抽出した顔撮影画像の中から所定の基準を満たす顔撮影画像を基準合致顔画像として選択する顔検知ステップと、
    統合記憶部が、前記物体検知ステップにより特定された前記物体検知画像と前記物体検知時刻とを入力するとともに、前記顔検知ステップにより選択された前記基準合致顔画像を入力して、前記物体検知時刻と前記物体検知画像と前記基準合致顔画像とを対応付けて記憶装置に記憶する統合記憶ステップと
    を備え
    前記統合記憶ステップは、
    前記統合記憶部が、前記基準合致顔画像とともに前記基準合致顔画像が撮影された時刻を記憶し、
    前記監視画像記憶システムの監視画像記憶方法は、さらに、
    情報取得部が、前記所定のエリアに出現した人物から所定の情報を取得する情報取得ステップと、
    情報記憶部が、前記情報取得ステップにより取得した情報を、前記情報が取得された時刻とともに記憶装置に記憶する情報記憶ステップと、
    顔画像データベース作成部が、前記統合記憶ステップにより記憶された前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを入力して、入力した前記基準合致顔画像が撮影された時刻から過去の所定の範囲に取得された情報を前記情報記憶ステップにより記憶された情報の中から抽出し、抽出した情報と前記基準合致顔画像と前記基準合致顔画像が撮影された時刻とを対応付けて記憶装置に記憶する顔画像データベース作成ステップと
    を備えたことを特徴とする監視画像記憶システムの監視画像記憶方法。
JP2008257998A 2008-10-03 2008-10-03 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法 Active JP5139947B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008257998A JP5139947B2 (ja) 2008-10-03 2008-10-03 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008257998A JP5139947B2 (ja) 2008-10-03 2008-10-03 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法

Publications (2)

Publication Number Publication Date
JP2010088072A JP2010088072A (ja) 2010-04-15
JP5139947B2 true JP5139947B2 (ja) 2013-02-06

Family

ID=42251520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008257998A Active JP5139947B2 (ja) 2008-10-03 2008-10-03 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法

Country Status (1)

Country Link
JP (1) JP5139947B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5203319B2 (ja) * 2009-08-25 2013-06-05 セコム株式会社 置き去り監視装置
JP5757708B2 (ja) * 2010-08-30 2015-07-29 セコム株式会社 通報装置
JP5691807B2 (ja) * 2011-04-28 2015-04-01 サクサ株式会社 置き去り又は持ち去り検知システム
WO2018116488A1 (ja) * 2016-12-22 2018-06-28 日本電気株式会社 解析サーバ、監視システム、監視方法及びプログラム
JP7489633B2 (ja) * 2017-08-02 2024-05-24 株式会社木村技研 セキュリティ管理システム
CN113647097B (zh) * 2019-03-01 2024-08-06 株式会社日立制作所 遗留物检测装置及遗留物检测方法
WO2021186610A1 (ja) * 2020-03-18 2021-09-23 株式会社 テクノミライ デジタル・オートファイル・セキュリティシステム、方法及びプログラム
JP6773389B1 (ja) * 2020-03-18 2020-10-21 株式会社 テクノミライ デジタル・オートファイル・セキュリティシステム、方法及びプログラム
CN114446088B (zh) * 2022-02-16 2022-12-16 成都宜泊信息科技有限公司 一种车位管理方法、管理***、存储介质、电子设备
JP2024098392A (ja) * 2023-01-10 2024-07-23 富士通株式会社 検出プログラム、検出方法および情報処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183799A (ja) * 2000-12-15 2002-06-28 Hitachi Electronics Service Co Ltd 画像データ記録システム
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法
JP2005277726A (ja) * 2004-03-24 2005-10-06 Toshiba Corp 画像監視装置
JP5040258B2 (ja) * 2006-10-23 2012-10-03 株式会社日立製作所 映像監視装置、映像監視システムおよび画像処理方法

Also Published As

Publication number Publication date
JP2010088072A (ja) 2010-04-15

Similar Documents

Publication Publication Date Title
JP5139947B2 (ja) 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法
JP5962916B2 (ja) 映像監視システム
US9141184B2 (en) Person detection system
US20070206834A1 (en) Search system, image-capturing apparatus, data storage apparatus, information processing apparatus, captured-image processing method, information processing method, and program
JP5004845B2 (ja) 監視端末装置およびその表示処理方法,プログラム,メモリ
US9891798B2 (en) Face image tracking system
JP5982557B2 (ja) 映像監視システムおよび画像検索システム
JP4966896B2 (ja) 行動管理装置
JP5260233B2 (ja) 追跡装置、追跡方法及び追跡プログラム
JP2009027393A (ja) 映像検索システムおよび人物検索方法
US20180322652A1 (en) Object detection system and method, and computer readable recording medium
JP5202419B2 (ja) 警備システムおよび警備方法
JP2011154519A (ja) 監視カメラシステム
JP6515852B2 (ja) 情報処理装置、個人認証システム、その制御方法、個人認証方法、そのプログラム
JP2018151840A (ja) 照合システム、照合方法および照合プログラム
JP2009200757A (ja) 映像データ処理装置、プログラム及び方法
JP4985742B2 (ja) 撮影システム、方法及びプログラム
US20170262870A1 (en) Information processing apparatus, method of controlling same, and non-transitory computer-readable storage medium
JP6555481B2 (ja) 映像監視システム
JP6485978B2 (ja) 画像処理装置および画像処理システム
JP4790391B2 (ja) 自動取引装置及び監視システム
JP2004104572A (ja) 監視カメラ制御方法およびシステム、監視カメラ制御方法をコンピュータに実行させるプログラム、このプログラムを記録した記録媒体
JP7529241B2 (ja) 顔認証システムおよび顔認証方法
JP2004282675A (ja) 監視システム
JP5188304B2 (ja) ログ管理装置及びコンピュータプログラム及びログ管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5139947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250