JP4148285B2 - 監視装置、フィルタ較正方法及びフィルタ較正プログラム - Google Patents

監視装置、フィルタ較正方法及びフィルタ較正プログラム Download PDF

Info

Publication number
JP4148285B2
JP4148285B2 JP2006205068A JP2006205068A JP4148285B2 JP 4148285 B2 JP4148285 B2 JP 4148285B2 JP 2006205068 A JP2006205068 A JP 2006205068A JP 2006205068 A JP2006205068 A JP 2006205068A JP 4148285 B2 JP4148285 B2 JP 4148285B2
Authority
JP
Japan
Prior art keywords
filter
video data
metadata
monitoring
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006205068A
Other languages
English (en)
Other versions
JP2008033542A (ja
Inventor
哲也 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006205068A priority Critical patent/JP4148285B2/ja
Priority to US11/780,953 priority patent/US8159538B2/en
Priority to CN2007101494066A priority patent/CN101127892B/zh
Publication of JP2008033542A publication Critical patent/JP2008033542A/ja
Application granted granted Critical
Publication of JP4148285B2 publication Critical patent/JP4148285B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、監視カメラから映像データとその映像データに関するデータ(メタデータ)を取得して、このメタデータのフィルタ処理を行い、フィルタ処理により得られたフィルタ処理結果に基づいて監視結果の出力を行う監視装置及びその監視装置におけるフィルタ較正方法、フィルタ較正プログラムに関する。
従来、監視カメラと制御装置とをネットワークを介して接続した監視システムが用いられている。このような監視システムにおいて、監視カメラは、撮影した映像データを、ネットワークを介して制御装置である監視装置に送信する。監視装置は、受信した映像データを記録するとともに、映像データを解析することで異常の発生を検出し、アラームを出力する。監視員は、モニタに表示される監視映像及び制御装置が出力したアラームの内容を確認しながら監視を行うことができる。
また近年の監視カメラは、監視装置に撮影した映像データを送信するだけでなく、撮影した映像データに関するメタデータ(例えば、アラーム情報や温度情報、カメラの画角情報)を生成して、監視装置にメタデータを送信する機能を有している。このような監視カメラを用いた監視システムにおいて、監視装置は、監視カメラから供給されたメタデータを、アラームを出力する特定の条件を設定したメタデータフィルタ(以下フィルタと称する)に通し、条件に合致した場合にアラームを出力する。メタデータフィルタには、例えばある場所への不審物の侵入や、ある境界線を通過する動体(オブジェクト)などを異常として検出するための条件が設定されている。
特許文献1には、ネットワークを介して監視端末(監視カメラ)から監視装置に監視映像の映像データを供給し、異常発生時の監視映像の確認等を監視装置で行う技術が記載されている。
特開2003−274390号公報
ところで、この種の監視システムで監視を行う場合で、特に、特定の境界線を越えた物体の数を計測し、その数に応じてアラームを出力するフィルタを用いる場合には、実際に特定の境界線を越えた物体の数と、フィルタを通して得られた物体(オブジェクト)の数との間で誤差が生じてしまうことがある。実際には複数個の物体であるにも係わらず、例えば物体同士が近接していることにより、監視カメラにおいて1つのオブジェクトとして認識されてしまう場合には、実際の物体の数より、フィルタ処理を通して得られたオブジェクト数の方が少なくなってしまう。
また、監視対象の物体が人間である場合には、手や足などの局部の動きが検知されることにより、本来1つのオブジェクトとして認識されるべきものが複数のオブジェクトとして認識され、実際より多くカウントされてしまうという問題もある。さらに、瞬間的な明るさの変化等により生じたノイズにより、1つの物体が複数のオブジェクトとしてカウントされてしまうということもあった。
本発明はかかる点に鑑みてなされたものであり、フィルタ処理の精度を向上させることを目的とする。
本発明は、監視用撮像装置が撮像して出力する映像データを使用して監視を行う場合において、フィルタ設定情報をフィルタ設定部に保存し、フィルタ設定部から読み出した所定のフィルタ又は、新規に設定したフィルタに対応させて、少なくとも1つの仮想的なフィルタを自動で配置し、フィルタ設定部より読み出した所定のフィルタ又は新規に設定したフィルタと、仮想的なフィルタとを用いてフィルタ処理を行い、フィルタ処理の結果得られた各値の最頻値を算出し、最頻値が予め求めておいたフィルタ処理の結果得られるべき真の値と同一又は近似すると判断した場合に、仮想的なフィルタを正式なフィルタとしてフィルタ設定部に記憶するようにしたものである。
このようにしたことで、フィルタ設定部から読み出した所定のフィルタ又は、新規に設定したフィルタに加えて、新たにフィルタが設定されるようになり、全てのフィルタを通して得た値が、フィルタ処理の結果得られるべき真の値と同一又は近似した値となる。
本発明によると、フィルタ処理の精度が向上する。即ち、フィルタを設定するに際しての適切な場所を算出し、その場所にフィルタを設定するようにしたため、フィルタ処理を通して得られる数が正確なものになる。
以下、本発明を実施するための最良の形態について、添付図面を参照しながら説明する。以下に説明する実施形態は、撮影対象物を撮影した映像データとともにメタデータを生成する撮像装置(監視カメラ)から得られたメタデータを解析して、動体(オブジェクト)を検出し、検出したオブジェクトの数を算出する監視システムに適用した例としている。
図1は、本発明の一実施形態例における監視システムの接続構成を示した図である。図1(a)は、監視装置としてのクライアント端末が、監視カメラから出力されたデータを、ネットワークを介して取得するシステムであり、図1(b)は、監視カメラから出力されたデータをサーバが取得し、クライアント端末に供給するシステム(サーバ/クライアントシステム)である。
まず図1(a)に示した監視システム100について説明する。図1に示すように、監視システム100は、1台、もしくは複数台の監視カメラを管理する。この例では2台としている。監視システム100は、監視対象物を撮影し、映像データを生成するとともに映像データからメタデータを生成する監視カメラ1a,1bと、取得した映像データとメタデータを解析し、保存するとともにオブジェクトを検出するとその数を算出するクライアント端末3と、監視カメラ1a,1bとクライアント端末3とを接続するネットワーク2とで構成される。クライアント端末3が、ネットワーク2を介して監視カメラ1a,1bから取得したメタデータは、メタデータフィルタ(以下、「フィルタ」とも称する。)を介して解析される。フィルタ処理結果の内容によっては、クライアント端末3は、監視に適した監視映像が得られるように監視カメラ1a,1bの動作を制御するため、監視カメラ1a,1bに対して切替指示信号を供給する。
なお、監視カメラ、クライアント端末、サーバ及びクライアント端末の台数はこの例に限られないことは勿論である。
ここで、監視カメラ内で生成されるメタデータについて説明する。メタデータとは、監視カメラの撮像部(図示せず)で撮像された映像データの属性情報のことであり、例えば下記のようなものがある。
・オブジェクト情報(監視カメラで動体を検知した場合の、動体(オブジェクト)のIDや座標、サイズ等の情報)
・撮像時刻データ、監視カメラの向き情報(パン・チルト等)
・監視カメラの位置情報
・撮像された画像の署名情報
オブジェクト情報とは、メタデータ内にバイナリデータとして記載された情報を、構造体などの意味のあるデータ構造に展開した情報のことである。
メタデータフィルタとは、オブジェクト情報からアラーム情報を生成する場合の判断条件のことであり、アラーム情報とは、メタデータから展開したオブジェクト情報を元に、フィルタ処理をかけた後の情報のことである。アラーム情報は、複数フレームのメタデータを解析し、動体の位置の変化から速度を割り出したり、動体がある線を越えたか否かの確認をしたり、またはこれらを複合的に解析することで得られる。
フィルタの種類としては、例えば以下の7種類があり、このうち任意のフィルタの種類を選択することができる。
Appearance(存在):物体(以下、オブジェクトとも称する)があるエリア内に存在するか否かを判別するためのフィルタ
Disappearance(消失):物体があるエリア(領域)に現れ、エリアから出たか否かを判別するためのフィルタ
Passing(通過):ある境界線を物体が超えたか否かを判別するためのフィルタ
Capacity(物体数制限):あるエリア内の物体の数をカウントし、その累積数が所定値を超えたか否かを判別するためのフィルタ
Loitering(滞留):所定の時間を超えて、あるエリア内に物体が滞留しているか否かを判別するためのフィルタ
Unattended(置き去り):所定の時間を越えて、あるエリア内に侵入し動かない物体が存在するか否かを判別するためのフィルタ
Removed(持ち去り):あるエリア内に存在した物体が取り除かれたことを検出するためのフィルタ
アラーム情報に含まれるデータとしては、上述したフィルタのうち“Capacity”等、検出されたオブジェクトの累計値を用いるフィルタを通して生成された“累積オブジェクト数”や、フィルタの条件に合致したオブジェクトの数である“オブジェクト数”、特定のフレーム内においてフィルタの条件に合致したオブジェクト数、フィルタの条件に合致したオブジェクトの属性情報(オブジェクトのID、X座標、Y座標、サイズ)等がある。アラーム情報には、このように映像内の員数(人数)や、それらの統計が含まれ、レポート機能としても使用できる。
次に、図1(a)に示した監視カメラ1の詳細な構成を、図2の機能ブロック図を参照して説明する。監視カメラ1は、映像データ生成部21と撮像動作切替部22、メタデータ生成部23とで構成される。まず、映像データ生成部21を構成する各部の説明から行なう。撮像部212は、レンズ部211を通して撮像素子(図示せず)に結像された撮像光を光電変換して撮像信号Svを生成する。
撮像部212は、例えば図示しないプリアンプ部及びA/D(Analog/Digital)変換部を備え、プリアンプ部では、撮像信号Svの電気信号レベルの増幅や、相関二重サンプリングによるリセット雑音の除去を行ない、A/D変換部では撮像信号Svをアナログ信号からデジタル信号に変換する。また、撮像部212では、供給された撮像信号Svのゲイン調整や黒レベルの安定化、ダイナミックレンジの調整等も行う。このように様々な処理が行なわれた撮像信号Svは、撮像信号処理部213に供給される。
撮像信号処理部213は、撮像部212から供給された撮像信号Svに対して種々の信号処理を行い、映像データDvを生成する。例えば、撮像信号Svのあるレベル以上を圧縮するニー補正、撮像信号Svのレベルを設定されたγカーブに従って補正するγ補正、撮像信号Svの信号レベルが所定範囲となるように制限するホワイトクリップ処理やブラッククリップ処理等を行う。そして映像データDvは、データ処理部214に供給される。
データ処理部214は、クライアント端末3等との通信を行なう際のデータ量を少なくするため、映像データDvに対して符号化処理を行なって映像データDtを生成する。さらに、データ処理部214は、生成した映像データDを所定のデータ構造としてクライアント端末3に供給する。
撮像動作切替部22は、クライアント端末3から入力される切替指示信号CAに基づき、最適な撮像映像が得られるよう監視カメラ1の動作切替を行なう。撮像動作切替部22は、例えば撮像部の撮像方向の切替を行なう他、レンズ部211に制御信号CMaを供給してズーム比やアイリスの切替を行わせたり、撮像部212と撮像信号処理部213に制御信号CMbを供給して撮像映像のフレームレートの切替を行わせたり、さらにはデータ処理部214に制御信号CMcを供給して映像データの圧縮率の切替を行わせる等の処理を行なう。
メタデータ生成部23は、監視対象に関する情報を示したメタデータDmの生成を行なう。動体を監視対象とする場合であれば、映像データ生成部21で生成された映像データDvを用いて動体の検出を行い、動体が検出されているか否かを示す動体検知情報や、検出した動体の位置を示す動***置情報を生成し、これをオブジェクト情報としてメタデータに含める。このとき検出されたオブジェクトには、一意のIDが割り振られる。
なお、監視対象に関する情報は、動体に関連した情報に限られるものではなく、監視カメラで監視する領域の状態を示す情報であってもよい。例えば、監視する領域の温度や明るさ等の情報であってもよい。あるいは、監視する領域内で行われた操作等の情報であってもよい。温度を監視対象とする場合には温度測定結果をメタデータに含め、明るさを監視対象とする時には、メタデータ生成部23は映像データDvに基づいて例えば監視映像の平均輝度を判別し、この判別結果をメタデータに含めるようにすればよい。
さらに、ATM(Automated Teller Machine)やPOS(Point Of Sales)端末等を対象としてユーザが行なった操作を監視対象とする場合には、操作キーや操作パネル等を通じて行なわれたユーザ操作をメタデータに含めるようにすればよい。
また、メタデータ生成部23は、撮像動作切替部22から供給された撮像動作QF(例えば監視対象を撮像した時の撮像方向やズーム状態、映像データ生成部の設定情報等)や、時刻情報等をメタデータに含めることで、メタデータが生成された時刻や状況を記録として残すことができる。
ここで、映像データとメタデータの構成について説明する。映像データとメタデータは、それぞれデータ本体とリンク情報とで構成されている。データ本体は、映像データの場合、監視カメラ1a,1bが撮影した監視映像の映像データである。またメタデータの場合、監視対象を示す情報等と、この情報の記述方式を定義した属性情報を記述したものである。一方、リンク情報とは、映像データとメタデータとの関連付けを示す関連付け情報と、この情報の内容の記述方式を定義した属性情報等を記述したものである。
関連付け情報としては、例えば映像データを特定するためのタイムスタンプやシーケンス番号を使用する。タイムスタンプとは、映像データの生成時刻を与える情報(時刻情報)であり、シーケンス番号とは、コンテンツデータの生成順序を与える情報(順序情報)である。タイムスタンプの等しい監視映像が複数存在するような場合、タイムスタンプの等しい映像データの生成順序を識別することができる。また、関連付け情報には、映像データを生成する機器を特定するための情報(例えば製造会社名や機種名、製造番号等)を使用するものとしてもよい。
リンク情報やメタデータ本体の記述には、ウェブ(WWW:World Wide Web)上で交換される情報を記述するために定義されたマークアップ言語を用いるものとする。マークアップ言語を用いると、ネットワーク2を介した情報の交換を容易に行うことができる。さらに、マークアップ言語として、例えば文書や電子データの交換に利用されているXML(Extensible Markup Language)を用いることで、映像データとメタデータの交換も容易に行うことができる。XMLを用いるものとした場合、情報の記述方式を定義した属性情報は、例えばXMLスキーマを使用する。
監視カメラ1a,1bで生成した映像データやメタデータは、1つのストリームとしてクライアント端末3に供給するものとしてもよく、映像データとメタデータを別のストリームで非同期にクライアント端末3に供給するものとしてもよい。
なお、図1(b)に示すように、サーバ機能とクライアント機能を分割してサーバ11とクライアント端末12で構成された監視システムに適用しても、上述した図1(a)の例と同様の機能、効果を得ることができる。サーバ機能とクライアント機能を分割することで、処理性能が高いサーバ11で大量にデータを処理し、処理性能が低いクライアント端末12では専ら処理結果を閲覧するといった使い分けが可能となる。このように機能分散することでより柔軟性に富んだ監視システム100を構築できるという効果がある。
次に、図1(a)に示したクライアント端末3の詳細な構成を、図3の機能ブロック図を参照して説明する。ただし、クライアント端末3の各機能ブロックは、ハードウェアで構成するものとしてもよく、またソフトウェアで構成するものとしてもよい。
クライアント端末3は、監視カメラ1a,1bとのデータ伝送を行なうネットワーク接続部101と、監視カメラ1a,1bから映像データを取得する映像バッファ部102と、監視カメラ1a,1bからメタデータを取得するメタデータバッファ部103と、フィルタ処理に応じたフィルタ設定を蓄積するフィルタ設定データベース107と、メタデータのフィルタ処理を行うフィルタ部としてのメタデータフィルタ部106と、メタデータフィルタの較正を行なうメタデータフィルタ較正部113と、監視カメラ1a,1bに設定変更を通知するルール切替部108と、映像データを蓄積する映像データ蓄積データベース104と、メタデータを蓄積するメタデータ蓄積データベース105と、映像データやメタデータ等を表示する表示部111と、映像データを表示部111で再生させるための処理を行なう映像データ処理部109と、メタデータを表示部111で再生させるための処理を行なうメタデータ処理部110と、メタデータと映像データとの再生を同期させる再生同期部112とを備えている。
映像バッファ部102は、監視カメラ1a,1bから映像データを取得し、符号化されている映像データの復号化処理を行う。そして、映像バッファ部102は、得られた映像データを映像バッファ部102に設けられている図示しないバッファに保持する。さらに、映像バッファ部102は、図示しないバッファに保持している映像データを順次、画像を表示する表示部111に供給する処理も行う。このように図示しないバッファに映像データを保持することで、監視カメラ1a,1bからの映像データの受信タイミングに依らず、表示部111に対して順次映像データを供給できる。また、映像バッファ部102は、後述するルール切替部108から供給される録画要求信号に基づき、保持している映像データを映像データ蓄積データベース104に蓄積させる。なお、映像データ蓄積データベース104には、符号化されている映像データを蓄積するようにし、後述する映像データ処理部109で復号化を行うようにしてもよい。
メタデータバッファ部103は、メタデータバッファ部103に設けられている図示しないバッファに、監視カメラ1a,1bから取得したメタデータを保持する。また、メタデータバッファ部103は、保持しているメタデータを表示部111に順次供給する。また、図示しないバッファに保持しているメタデータを後述するメタデータフィルタ部106に供給する処理も行う。このように図示しないバッファにメタデータを保持することで、監視カメラ1a,1bからのメタデータの受信タイミングに依らず、表示部111に対して順次メタデータを供給できる。また、映像データと同期させてメタデータを表示部111に供給できる。さらに、メタデータバッファ部103は、監視カメラ1a,1bから取得したメタデータをメタデータ蓄積データベース105に蓄積させる。ここで、メタデータをメタデータ蓄積データベース105に蓄積する際に、メタデータと同期する映像データの時刻情報を付加しておく。このようにすることで、メタデータの内容を読み出して時刻を判別しなくとも、付加されている時刻情報を利用して、所望の時刻のメタデータをメタデータ蓄積データベース105から読み出すことが可能となる。
フィルタ設定データベース107は、後述するメタデータフィルタ部106で行うフィルタ処理に応じたフィルタ設定を蓄積するとともに、フィルタ設定をメタデータフィルタ部106に供給する。このフィルタ設定とは、アラーム情報等の出力や監視カメラ1a,1bの撮像動作の切替を行う必要があるか否かの判断基準等を、メタデータに含まれている監視対象に関する情報ごとに示す設定である。このフィルタ設定を用いてメタデータのフィルタ処理を行うことで、監視対象に関する情報ごとにフィルタ処理結果を示すことができる。フィルタ処理結果には、アラーム情報等の出力を行う必要があることや、監視カメラ1a,1bの撮像動作の切替が必要であることが示される。
メタデータフィルタ部106は、フィルタ設定データベース107に蓄積されているフィルタ設定を用いてメタデータのフィルタ処理を行い、アラームを発生させるかどうかを判断する。そして、メタデータフィルタ部106は、メタデータバッファ部103で取得したメタデータ、あるいはメタデータ蓄積データベース105から供給されたメタデータのフィルタ処理を行い、フィルタ処理結果をルール切替部108に通知する。
メタデータフィルタ較正部113は、メタデータフィルタ部106を通して得られる、“オブジェクト数”や“累積オブジェクト数”等のアラーム情報の精度を向上させるための処理を行なう。メタデータフィルタ較正部113での処理の詳細については後述する。
ルール切替部108は、メタデータフィルタ部106から通知されたフィルタ処理結果に基づいて、設定変更信号を生成し、監視カメラ1a,1bに設定変更を通知する。例えば、メタデータフィルタ部106から得られたフィルタ処理結果に基づき、監視に適した監視映像が得られるように監視カメラ1a,1bの動作を切り替える指令を出力する。また、ルール切替部108は、フィルタ処理結果に基づいて映像データ蓄積データベース104に録画要求信号を供給して、映像バッファ部102で取得した映像データを映像データ蓄積データベース104に蓄積させる。
映像データ蓄積データベース104は、映像バッファ部102で取得された映像データを蓄積する。メタデータ蓄積データベース105は、メタデータバッファ部103で取得されたメタデータを蓄積する。
映像データ処理部109は、映像データ蓄積データベース104に蓄積されている映像データを表示部111に表示させるための処理を行う。即ち、映像データ処理部109は、ユーザによって指示された再生位置から順次映像データを読み出して、読み出した映像データを表示部111に供給する。また、映像データ処理部109は、再生している映像データの再生位置(再生時刻)を再生同期部112に供給する。
メタデータと映像データとの再生を同期させる再生同期部112は、映像データ処理部109から供給された再生位置と、メタデータ処理部110で、メタデータ蓄積データベース105に蓄積されているメタデータを再生するときの再生位置が同期するように、同期制御信号をメタデータ処理部110に供給して、メタデータ処理部110の動作を制御する。
メタデータ処理部110は、メタデータ蓄積データベース105に蓄積されているメタデータを表示部111に表示させるための処理を行う。即ち、メタデータ処理部110は、ユーザによって指示された再生位置から順次メタデータを読み出して、読み出したメタデータを表示部111に供給する。また、映像データとメタデータの双方を再生する場合、メタデータ処理部110は、上述したように、再生同期部112から供給された同期制御信号に基づいて再生動作を制御して、映像データに同期したメタデータを表示部111に出力する。
表示部111は、映像バッファ部102から供給されたライブ(生)の映像データや映像データ処理部109から供給された再生映像データ、メタデータバッファ部103から供給されたライブのメタデータやメタデータ処理部110から供給された再生メタデータを表示する。また、表示部111は、メタデータフィルタ部106からのフィルタ設定に基づき、監視映像やメタデータの映像やフィルタ設定の映像のいずれか、あるいはこれらを合成した映像を用いて、フィルタ処理結果に基づく監視結果を示す映像を表示(出力)する。
また、表示部111は、グラフィカルユーザインタフェース(GUI:Graphical User Interface)としても機能する。使用者は、図示しない操作キーやマウス、リモートコントローラ等を用い表示部111に表示されたフィルタ設定メニュー等を選択することでフィルタを定義したり、各処理部の情報やアラーム情報の解析結果等をGUI表示したりすることができる。
図4は、本実施形態におけるクライアント端末3の表示部111による映像データとメタデータの表示例を示したものである。図4に示すように、監視カメラ1a,1bで撮像された映像データ1001及びメタデータ1002がネットワーク2を介してクライアント端末3へ供給される。監視カメラ1a,1bで生成されるメタデータの種類としては、時間、映像解析結果の動体情報(例えば、位置、種類、ステータスなど)、現在の監視カメラの状態などがある。また、クライアント端末もしくはサーバが持つソフトウェアモジュールを備え、監視カメラがネットワークを介さないで動作する場合も有効である。
クライアント端末3は、前述のように監視カメラ1a,1bから供給された映像データ1001及びメタデータ1002を取得、解析、保存する。クライアント端末3に入力された映像データ1001及びメタデータ1002は、映像データ蓄積データベース104、メタデータ蓄積データベース105に保存される。クライアント端末3は、フィルタ設定機能を有しており、表示部111に表示されるフィルタ設定画面(フィルタ設定メニュー)を通して各種フィルタの設定が行なわれ、その設定情報がフィルタ設定データベース107に保存される。
図4に示すフィルタ設定表示画面1003ではフィルタの設定により生成されたラインLN及びエリアPAが表示されている。矢印PBは、ラインLNに対して検出すべきPassing(通過)方向を示している。
監視映像1004は、表示部111によって映像データ1001とフィルタとが重畳して表示された様子を示してある。ラインLNはPassing(通過)のフィルタとして設定してあり、このフィルタを通過したオブジェクトをカウントする設定がされている場合には、ラインLNを通過したオブジェクトの数が算出される。この画面においては、ラインLNを通過したオブジェクトとしてMB1及びMB2が検出されるため、オブジェクト数は2となる。
ところが、ある物体が監視カメラ1a,1bで認識され、オブジェクトとして生成される際に、オブジェクトは、図4でMB1やMB2として示されるように多角形(この場合は四角形)で認識されるため、オブジェクト同士が近接している場合等には、監視カメラ側で複数のオブジェクトを1つのオブジェクトとして認識してしまうことがある。
図5は、ある場所を監視カメラが天井から垂直下向きに撮像した場合の、映像の1フレームを示したものである。ここではラインLN0がフィルタ(Passing)として設定してあり、ラインLN0を通過するオブジェクトの数がカウントされる構成としてある。図5に示される画面上では、通行人P1〜P3を確認できるが、監視カメラにおいては、通行人P1〜P3が、オブジェクトMB3及びオブジェクトMB4の2つのオブジェクトとして認識されている様子が示されている。通行人P2とP3が近接していることにより、1つのオブジェクトとして認識されたためであり、通行人P2及びP3がオブジェクトMB4として認識されたままラインLN0を通過すると、ラインLN0ではオブジェクト数が1としてカウントされてしまう。
本実施の形態においては、メタデータフィルタ部106で実際にフィルタ処理が行なわれる前段階で、フィルタ設定データベース107より抽出したフィルタ又は、新たに設定したフィルタに対して、その精度をより向上させることが可能であると想定される位置に仮想的なフィルタを自動で設定し、仮想的なフィルタを用いてフィルタ処理を行ない、より精度の高い情報を得ることができた場合に、仮想的に設定したフィルタを正式なフィルタとして採用することで、フィルタの較正処理(キャリブレーション)を行い、フィルタ処理結果の誤差を軽減するようにしたことを特徴とするものである。
まず、図6のフローチャートを参照して、メタデータフィルタ較正部113における、フィルタの較正処理について説明する。本例では、ある境界線(ライン)をオブジェクトが超えた場合に、その数をカウントするPassing(通過)のフィルタに対して較正を行なう場合の処理例を説明する。まず、フィルタ較正用に用いる映像を、映像データ蓄積データベース104もしくは映像バッファ部102から選択する(ステップS11)。このとき選択する映像は、時間的にある一定の長さを持った映像データであるものとする。
次に、較正を行ないたい対象のフィルタを、フィルタ設定データベース107より選択、もしくは新規に設定する(ステップS12)。このとき選択又は新規に設定されたフィルタは、例えば図5におけるラインLN0のように画面中に固定のラインとして表示される。(新規設定の場合には、このようなラインを画面上に設定する)
次に、較正用映像データに、選択あるいは新規に設定したフィルタを適用した場合のオブジェクトの数を算出する(ステップS13)。つまり、較正用映像データの開始から終了までの時間に、較正用画像の中の物体が、ステップS12で選択したフィルタ(この場合はライン)上を通過する正確な数Tを算出する。正確な数とは、フィルタとして設定されたライン上を物体が通過した実質的な数であり、図5を用いて前述したように、物体同士が近接している場合においても、個々の物体を1つの物体としてカウントして得られる数である。正確な数の算出方法としては、ライン上を通過する物体の正確な数あるいは正確な数の近似値を算出可能な専用のシステムを用いるか、又は、人が目視で正確な数をカウントする手法を用いてもよい。
正確な数Tが求められた後は、ステップS12で選択又は新規に設定されたフィルタに対して、その周囲に複数の仮想的なフィルタを補足的に設定することにより、それぞれのフィルタを通して得られたオブジェクトの数の多数決を採った値(最頻値)が、正確な数Tに近い値となるよう、メタデータフィルタ較正部113によって仮想的なフィルタの位置が選択され、配置される(ステップS14)。この場合のフィルタ設定例を、図7に示してある。ラインLN0は、ステップS12で選択又は新規に設定されたフィルタであり、ラインLN1とラインLN2が、ここで新たに仮想的なフィルタとして設定されたフィルタである。
次に、メタデータフィルタ部106によって実際にフィルタ処理を行なわせ(ステップS15)、メタデータフィルタ較正部113がラインLN0〜LN2のそれぞれのフィルタで得られたオブジェクト数を抽出する(ステップS16)。そして、ラインLN0〜LN2のそれぞれのフィルタで得られたオブジェクト数の最頻値(モード)Fを算出する(ステップS17)。ここで、正確な数Tと各フィルタで得られたオブジェクト数の最頻値Fとが比較され(ステップS18)、T≠FであればステップS14に戻り、T=Fになるまで作業が続けられる。T=Fであれば、仮想的に設定した複数のフィルタを正式なフィルタとして採用し、フィルタ設定データベース107に記憶させる(ステップS19)。この場合、TとFとが完全に一致するT=Fでなく、Tに対してFが近似値であるT≒Fの場合にも、仮想的なフィルタを正式なフィルタとして採用するようなアルゴリズムとしてもよい。
図7は、仮想的なフィルタが適切な位置に配置された場合の例として示された図である。ラインLN0は、図6のステップS12で選択又は新規に設定されたフィルタであり、仮想的なフィルタとして、ラインLN1とLN2とを追加してある(図6のステップS14に対応)。フィルタ較正用映像としては、人P1〜人P3が画面下から上の方向に歩行する様子を天井から監視カメラが垂直下向き方向に撮影した映像データを使用してあり、図7〜図15の各図が、フィルタ較正用映像の1フレームを示している。図7〜図15の順番は、時系列での順番である。また、各図の右側に、各フィルタで得られたオブジェクト数のその時点での累計値を表示してある。
図7では、監視カメラによって、人P1がオブジェクトMB3として認識され、人P2がオブジェクトMB4として、人P3がオブジェクトMB5として認識された様子を示してある。この時点では、いずれのオブジェクトもまだラインLN0〜LN2を通過していないため、それぞれのフィルタで得られたオブジェクト数(つまり、それぞれのラインを通過したオブジェクト数)は、0として表示してある。
図8は、図7の画像の次のフレームの画像であり、オブジェクトMB3として認識されている人P1が、仮想的に設定されたフィルタであるラインLN2を通過している様子が示されている。このため、ラインLN2での累積オブジェクト数が1となっている。
図9は、オブジェクトMB3として認識されている人P1が、ラインLN0を通過し、オブジェクトMB4として認識されている人P2と、オブジェクトMB5として認識されている人P3とがラインLN2を通過中の様子を示してある。ラインLN0での累積オブジェクト数は1となり、ラインLN2での累積オブジェクト数は、この時点までにラインLN2を通過したオブジェクトは、オブジェクトMB3、MB4、MB5であるため、3となっている。
このように、人とオブジェクトとが1対1としてきちんと認識されれば、フィルタを通して得られるオブジェクト数と、フィルタであるラインを実際に通過した人の数とに誤差が生じることは無い。ところが、監視対象である人や物の動体のそれぞれが近接している場合には、異なる物体同士が監視カメラによって1つのオブジェクトとして認識されてしまうことがある。また、監視対象が人である場合には手や足などの局部の動きを検知してしまった場合に、1人の人間であっても別々のオブジェクトとして認識されてしまうこともある。図10では、人P2と人P3とが1つのオブジェクトMB4として認識されてしまっている様子が示されている。
図10の時点で1つのオブジェクトMB4として認識された人P2及び人P3が、次のフレームである図11でも、オブジェクトMB4と認識されたままでラインLN0を通過している。このため、図11の時点におけるラインLN0での累積オブジェクト数は、オブジェクトMB3とオブジェクトMB4との合計値である2となっている。本来、ラインLN0とラインLN2での累積オブジェクト数は同数であるはずだが、ラインLN0とラインLN2との位置の違いにより、認識されるオブジェクトの数が異なってしまっている。
図12では、オブジェクトMB3として認識されている人P1がラインLN1を通過中の様子が示されており、ラインLN1における累積オブジェクト数は1となっている。図13では、人P2がオブジェクトMB6として、又、人P3がオブジェクトMB4として、再び別々のオブジェクトとして認識された様子を示してある。次のフレームである図14では、オブジェクトMB4として認識されている人P3がラインLN1を通過した様子が示してあり、ラインLN1での累積オブジェクト数は、オブジェクトMB2とオブジェクトMB4の合計2となっている。
図15では、オブジェクトMB6として認識されている人P2が、ラインLN1条を通過中の様子を示してあり、ラインLN1での累計オブジェクト数は、オブジェクトMB3,M4,及びMB6の合計である3となっている。ここまでの処理は、図6のフローチャートでいえば、フィルタ実行のステップS15及び、各フィルタ処理で得られたオブジェクト数の抽出を行なうステップS16に対応する。ここで、各フィルタ処理で得られたオブジェクト数の最頻値Fが求められるわけだが(図6のステップS17に対応)、図7の例では、ラインL1での累積オブジェクト数=3、ラインLN0での累積オブジェクト数=2、ラインLN1での累積オブジェクト数=3であるため、最頻値は3となる。
図7〜図15で実際にラインLN0を通過した物体(人)の数は3であり、この値を予めTとして用意しておき、TとFとの比較を行なうことにより(図6のステップS18に対応)、仮想的に設定したフィルタの配置位置の適切さを測ることができる。この場合、T=F=3であるため、仮想的に設置したフィルタ及び、較正の対象として選択又は新規に設定したフィルタの配置位置は適切であると判断される。よって、ラインLN0〜ラインLN2を正式なフィルタとして採用し、フィルタ設定データベース107に保存する(図6のステップS19に対応)。TとFとの誤差が大きい場合には、仮想的に設けたフィルタとしてのラインの位置を変更して再設置し、T=F(あるいはT≒F)になるまで、図6におけるステップS15〜S18までの動作を繰り返す。
このようにして求められたフィルタを用いて実際のフィルタ処理を行なうことで、実際にフィルタ処理を行なった結果得られる累積オブジェクト数等の値が、実情に即した正確な値又はそれに近い値となる。
なお、図7〜図15の例ではフィルタを3つ設定した例を示してあるが、設定するフィルタの数はこれに限られない。その場合、各フィルタで得られるオブジェクト数をC(1)〜C(n)(nは整数)とすると、最頻値Fは、最頻値を求める関数fに代入することにより、F=f(C(1)…C(n))として求められる。
また、仮想的なフィルタの設定を行なうにあたり、最適なフィルタ設定ができるよう、較正用映像データの再生速度の変更やズームの調整等を行うようにしてもよい。
さらに、上述した実施形態例における一連の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。
また、上述した実施の形態においては、監視カメラから出力されるメタデータに対してフィルタ処理を行なう構成としたが、フィルタ処理の対象はメタデータに限定されるものではなく、他の様々な形態のデータに対してフィルタ処理を行なう場合にも適用可能である。例えば、映像データそのものに対して、直接フィルタ処理を行うようにして、解析などを行うようにしてもよい。
本発明の一実施の形態による監視システムの構成例を示す構成図である。 本発明の一実施の形態による監視カメラの内部構成例を示すブロック図である。 本発明の一実施の形態によるクライアント端末の内部構成例を示すブロック図である。 本発明の一実施の形態による映像データとメタデータの表示例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態によるフィルタ較正処理例を示すフローチャートである。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。 本発明の一実施の形態による監視画像の例を示す説明図である。
符号の説明
1…監視カメラ、2…ネットワーク、3…クライアント端末、21…映像データ生成部、22…撮像動作切替部、23…メタデータ生成部、100…監視システム、101…ネットワーク接続部、102…映像バッファ部、103…メタデータバッファ部、104…映像データ蓄積データベース、105…メタデータ蓄積データベース、106…メタデータフィルタ部、107…フィルタ設定データベース、108…ルール切替部、109…映像データ処理部、110…メタデータ処理部、111…表示部、112…再生同期部、113…メタデータフィルタ較正部、211…レンズ部、212…撮像部、213…撮像信号処理部、214…データ処理部、1001…映像データ、1002…メタデータ、1003…フィルタ設定表示画面、1004…監視映像、LN…境界線、MB1,MB2,MB3…オブジェクト、PA…領域、PB…矢印

Claims (6)

  1. 監視用撮像装置が撮像して出力する映像データを使用して監視を行う監視装置において、
    前記映像データを解析するためのフィルタ設定情報を保存するフィルタ設定部と、
    前記映像データが、前記フィルタ設定部に保存されたフィルタのフィルタ条件に合致するかの判断を行い、条件に合致した場合に前記映像データから検知されたオブジェクトの数を計数して該計数結果を出力するフィルタ処理を行なうフィルタ部と、
    前記フィルタ設定部から読み出した所定のフィルタ又は新規に設定したフィルタに対応させて、少なくとも1つの仮想的なフィルタを配置し、前記フィルタ設定部より読み出した所定のフィルタ又は新規に設定したフィルタと、該仮想的なフィルタとを用いたフィルタ処理を前記フィルタ部に行なわせ、前記フィルタ処理の結果得られた各値の最頻値を算出し、該最頻値が、予め求めておいた前記フィルタ処理の結果得られるべき真の値と同一又は近似すると判断した場合に、該仮想的なフィルタを正式なフィルタとして前記フィルタ設定部に保存するフィルタ較正処理を行なうフィルタ較正部とを備えたことを特徴とする
    監視装置。
  2. 請求項1記載の監視装置において、
    前記フィルタは、前記監視用撮像装置が映像データと共に出力する、監視対象に関する情報を示したメタデータに対して設定されたフィルタであることを特徴とする
    監視装置。
  3. 請求項1記載の監視装置において、
    前記仮想的なフィルタは、前記フィルタ設定部より読み出したフィルタ又は新規に設定したフィルタを用いて行なうフィルタ処理の精度を、より向上させると想定される位置に配置されることを特徴とする
    監視装置。
  4. 請求項3記載の監視装置において、
    前記フィルタ較正部による前記仮想的なフィルタの設定は、前記最頻値と真の値とが同一又は近似すると判断できるまで、前記仮想的なフィルタの設定位置を変更して繰り返し行なわれることを特徴とする
    監視装置。
  5. 監視用撮像装置から映像データを取得して、該映像データから検知された物体の数を計数して該計数結果を出力するフィルタ処理を行う場合に、該フィルタ処理に用いるフィルタの較正処理を行なうフィルタ較正方法において、
    前記フィルタの設定情報を保存し、
    前記保存されたフィルタの中から読み出した所定のフィルタ又は、新規に設定したフィルタに対応させて、少なくとも1つの仮想的なフィルタを設定し、
    前記所定のフィルタ又は新規に設定したフィルタと、該仮想的なフィルタとを用いたフィルタ処理を行い、前記フィルタ処理の結果得られた各値の最頻値を算出し、該最頻値が、予め求めておいた前記フィルタ処理の結果得られるべき真の値と同一又は近似すると判断した場合に、該仮想的なフィルタを正式なフィルタとして保存することを特徴とする
    フィルタ較正方法。
  6. 監視用撮像装置から映像データを取得して、該映像データから検知された物体の数を計数して該計数結果を出力するフィルタ処理を行う場合に、該フィルタ処理に用いるフィルタの較正処理を行なうフィルタ較正プログラムにおいて、
    前記フィルタの設定情報を保存し、
    前記保存されたフィルタの中から読み出した所定のフィルタ又は、新規に設定したフィルタに対応させて、少なくとも1つの仮想的なフィルタを設定し、
    前記所定のフィルタ又は新規に設定したフィルタと、該仮想的なフィルタとを用いたフィルタ処理を行い、前記フィルタ処理の結果得られた各値の最頻値を算出し、該最頻値が、予め求めておいた前記フィルタ処理の結果得られるべき真の値と同一又は近似すると判断した場合に、該仮想的なフィルタを正式なフィルタとして保存することを特徴とする
    フィルタ較正プログラム。
JP2006205068A 2006-07-27 2006-07-27 監視装置、フィルタ較正方法及びフィルタ較正プログラム Expired - Fee Related JP4148285B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006205068A JP4148285B2 (ja) 2006-07-27 2006-07-27 監視装置、フィルタ較正方法及びフィルタ較正プログラム
US11/780,953 US8159538B2 (en) 2006-07-27 2007-07-20 Monitoring apparatus, filter calibration method, and filter calibration program
CN2007101494066A CN101127892B (zh) 2006-07-27 2007-07-27 监视设备和过滤器校准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006205068A JP4148285B2 (ja) 2006-07-27 2006-07-27 監視装置、フィルタ較正方法及びフィルタ較正プログラム

Publications (2)

Publication Number Publication Date
JP2008033542A JP2008033542A (ja) 2008-02-14
JP4148285B2 true JP4148285B2 (ja) 2008-09-10

Family

ID=38985779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006205068A Expired - Fee Related JP4148285B2 (ja) 2006-07-27 2006-07-27 監視装置、フィルタ較正方法及びフィルタ較正プログラム

Country Status (3)

Country Link
US (1) US8159538B2 (ja)
JP (1) JP4148285B2 (ja)
CN (1) CN101127892B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090031381A1 (en) * 2007-07-24 2009-01-29 Honeywell International, Inc. Proxy video server for video surveillance
JP5397014B2 (ja) * 2009-05-21 2014-01-22 ソニー株式会社 監視システム、撮像装置、解析装置及び監視方法
US10769913B2 (en) * 2011-12-22 2020-09-08 Pelco, Inc. Cloud-based video surveillance management system
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata
JP6071651B2 (ja) 2012-05-21 2017-02-01 キヤノン株式会社 撮像装置、クライアント装置、撮像システム、撮像装置の制御方法、クライアント装置の制御方法、および撮像システムの制御方法
US9479677B2 (en) * 2012-09-05 2016-10-25 Intel Corproation Protocol for communications between platforms and image devices
US10169661B2 (en) * 2014-03-28 2019-01-01 International Business Machines Corporation Filtering methods for visual object detection
WO2016075860A1 (ja) * 2014-11-14 2016-05-19 株式会社ソシオネクスト 半導体集積回路のレイアウト構造
CN104506526B (zh) * 2014-12-22 2018-05-22 叶广明 一种打猎相机、对其进行监控的方法、***及后台***
CN104486439B (zh) * 2014-12-22 2018-06-19 叶广明 一种基于智能终端的监控打猎相机的数据管理方法及后台***
CN105827474A (zh) * 2015-01-09 2016-08-03 丹纳赫(上海)工业仪器技术研发有限公司 网络监控方法、过滤数据包的方法及装置
JP2017046324A (ja) * 2015-08-28 2017-03-02 株式会社オプティム ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム
JP7044027B2 (ja) * 2018-10-15 2022-03-30 トヨタ自動車株式会社 車両
CN110533896B (zh) * 2019-09-03 2022-05-03 北京旷视科技有限公司 预警信息的处理方法、装置及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9892606B2 (en) * 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
KR20020084487A (ko) * 2001-05-02 2002-11-09 윤형오 사진촬영기능을 구비한 경보기
US20030040925A1 (en) * 2001-08-22 2003-02-27 Koninklijke Philips Electronics N.V. Vision-based method and apparatus for detecting fraudulent events in a retail environment
JP2003274390A (ja) 2002-03-18 2003-09-26 Olympus Optical Co Ltd 映像配信サーバおよび映像受信クライアントシステム
JP3999561B2 (ja) * 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ
US7602413B2 (en) * 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US20050132414A1 (en) * 2003-12-02 2005-06-16 Connexed, Inc. Networked video surveillance system
EP2595129B1 (en) * 2004-11-12 2020-05-20 Xtralis Technologies Ltd Method and system for detecting particles
JP5028751B2 (ja) * 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
US8055783B2 (en) * 2005-08-22 2011-11-08 Utc Fire & Security Americas Corporation, Inc. Systems and methods for media stream processing
US8228382B2 (en) * 2005-11-05 2012-07-24 Ram Pattikonda System and method for counting people

Also Published As

Publication number Publication date
CN101127892A (zh) 2008-02-20
US20080024609A1 (en) 2008-01-31
US8159538B2 (en) 2012-04-17
CN101127892B (zh) 2010-10-13
JP2008033542A (ja) 2008-02-14

Similar Documents

Publication Publication Date Title
JP4148285B2 (ja) 監視装置、フィルタ較正方法及びフィルタ較正プログラム
JP2008035095A (ja) 監視装置、監視システム、監視方法及びプログラム
US8280108B2 (en) Image processing system, image processing method, and computer program
JP4847165B2 (ja) 映像記録再生方法及び映像記録再生装置
US10594988B2 (en) Image capture apparatus, method for setting mask image, and recording medium
US10044923B2 (en) Apparatus and method for information processing and program
US7421727B2 (en) Motion detecting system, motion detecting method, motion detecting apparatus, and program for implementing the method
US20090185784A1 (en) Video surveillance system and method using ip-based networks
JP4646668B2 (ja) 撮像装置及びその制御方法
US20110090358A1 (en) Image pickup apparatus, information processing apparatus, and information processing method
JP6914007B2 (ja) 情報処理装置および情報処理方法
US20130002864A1 (en) Quality checking in video monitoring system
JP4325541B2 (ja) 画像処理装置、再生画像処理装置、画像処理方法及び再生画像処理装置
US20080024611A1 (en) Monitoring Apparatus, Monitoring Method, and Program
JP4611042B2 (ja) 映像出力システムおよび映像を出力するための制御プログラム
US20120120309A1 (en) Transmission apparatus and transmission method
KR20110051308A (ko) 얼굴 이미지 촬영 장치 및 방법
US20130006571A1 (en) Processing monitoring data in a monitoring system
JP2018114015A (ja) 生体情報検出装置、生体情報検出方法及び生体情報検出システム
JP2022098663A (ja) 監視システム、監視システムの異常検知検出方法、及び監視システムの異常検知検出プログラム
JP2012065027A (ja) 撮像装置及び撮像装置の制御方法
KR101484316B1 (ko) 관제 영상 모니터링 방법 및 시스템
KR20140121713A (ko) 영상 감시 시스템 및 그의 동작 방법
JP2005217786A (ja) 映像記録装置及び映像記録方法
JP2014138398A (ja) 監視装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees