JPWO2015087730A1 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JPWO2015087730A1
JPWO2015087730A1 JP2015552396A JP2015552396A JPWO2015087730A1 JP WO2015087730 A1 JPWO2015087730 A1 JP WO2015087730A1 JP 2015552396 A JP2015552396 A JP 2015552396A JP 2015552396 A JP2015552396 A JP 2015552396A JP WO2015087730 A1 JPWO2015087730 A1 JP WO2015087730A1
Authority
JP
Japan
Prior art keywords
image
unit
camera
video
intruder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552396A
Other languages
English (en)
Other versions
JP6403687B2 (ja
Inventor
藤井 幸
幸 藤井
山口 宗明
宗明 山口
晴洋 古藤
晴洋 古藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2015087730A1 publication Critical patent/JPWO2015087730A1/ja
Application granted granted Critical
Publication of JP6403687B2 publication Critical patent/JP6403687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

複数のカメラの視野に同時に侵入者が入ってきた場合に、モニタ表示されているカメラに対してのみしか状況確認ができないという欠点が改善された監視システムが開示される。このシステムは、複数のカメラにより撮影された映像を取得する映像取得手段と、該映像取得手段で取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段とを備える。映像表示制御手段は映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有する。映像表示制御手段は、平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有する。

Description

本発明は、監視システムに関するものである。
背景技術として、侵入者の自動検知機能を有した従来の監視システムを、図1〜図4を用いて説明する。
図1に、従来の監視システムのシステム構成図が示される。
図1のシステムは、敷地内を5台のカメラで監視するものであり、カメラ101、物体検知部102、映像配信部103、LAN_SW(Local Area Network SWitch)104、モニタ表示用PC(Personal Computer)105で構成される。
カメラ101で撮影された映像は、物体検知部102に入力される。
物体検知部102は、入力された映像に対して、侵入者・侵入物検知処理を行い、入力された映像に各種情報(線、文字、マーカーなど)を重畳し、検知結果映像を出力する。
映像配信部103は、物体検知部102から出力された検知結果映像を圧縮し、LANで映像を配信する。映像配信部103で配信された映像は、モニタ表示用PC105で受信し復号されて、モニタ表示用PC105に接続されたモニタ部210に表示する。
図4は、物体検知部102のブロック図である。
物体検知部102は、同軸ケーブル等で接続されたカメラ101から映像信号を入力され、A/D変換(Analog/Digital Conversion)などを行いデジタル画像データとして取り込むための画像入力I/F(InterFace)401、画像を一時記憶する画像メモリ402、画像処理のためのデータを一時記憶するためのワークメモリ部403、プログラムを実行するためのCPU(Central Processing Unit)204、画像メモリ402に記憶された映像をD/A変換し外部に出力するための画像出力I/F405、プログラムメモリ406、データバス407、モニタ表示用PC105へのアラーム通知やモニタ表示用PC105からのパラメータ設定のためのLAN_I/F408で構成されている。
プログラムメモリ406には、侵入者・侵入物検知ソフト409が記憶されている。
侵入者・侵入物検知ソフト409は、カメラの映像101を画像入力I/F401で取込み、画像メモリ402、ワークメモリ403を用いて、一般的なモーションディテクタに代表されるフレーム間差分処理、しきい値処理、物体判定(面積・幅・高さの判定)により、侵入者・侵入物検知を行うものである。
侵入者・侵入物検知ソフト409は、画像メモリ402に記憶された画像(処理途中過程の画像(差分画像や二値画像)や、入力画像に処理結果を重畳した処理結果画像など)を画像出力I/F405を用いて、モニタなどに表示する機能を持っている。また、検知処理の結果すなわち、侵入者・侵入物検知開始/終了の信号は、LAN_I/F201により、モニタ表示用PC105に通知される。
図2はモニタ表示用PC105の機能ブロック図であり、図3はモニタ表示用PC105で生成された監視用映像をモニタに表示した図である。
図2において、モニタ表示用PC105は、物体検知部102からのアラーム通知受信、物体検知部102のパラメータ送受信、映像配信部103からの配信映像の受信に用いるLAN_I/F201、データの演算や記憶を行うためのメモリ202、マップデータが記憶されているHDD23、プログラムを実行するためのCPU204、ポインティングデバイス212やキーボードなどでモニタ表示用PCの操作するための入力I/F205、プログラムメモリ206、ブザー211を制御(ON/OFF)するためのブザー出力I/F207、生成した表示マップ画像306及び表示カメラ映像307をD/A変換してモニタに出力するためのモニタ出力I/F208、データバス209、ポインティングデバイス212、モニタ部210−1〜210−2、ブザー211で構成されている。
プログラムメモリ206には、モニタ表示用ソフトウェアが記憶され、モニタ表示用ソフトウェアは、映像受信部206−1、アラーム受信部206−2、マップ表示部206―3、ブザー制御部206−4、映像切替部206−5で構成される。
映像受信部206−1は、映像配信部103から配信された映像を、LAN_I/F201を使用して受信を行い、受信した映像を復号してメモリに保持し、必要に応じ復号前の映像データをHDDにも記録する。ここでメモリもしくはHDDに記憶するカメラの映像は、全てのカメラであっても、表示カメラ映像307に表示されるカメラのみのどちらの形態もある。
アラーム受信部206−2は、物体検知部102から出力された侵入者・侵入物検知開始/終了の信号を受信し、受信した信号状態を元に、各カメラの警報状態(1回前及び現在の侵入者または侵入物のあり/なし)をメモリ202に記録する。管理上、各アラームには受信順にシリアル番号(受信されたアラームID)が付され、発報種別、発報元のカメラID、時刻、位置情報等が記録される。
記憶した侵入者または侵入物検知の開始/終了の信号は、マップ表示部206−3でのマップ表示画面の生成、ブザー制御部206−4のブザー制御や、映像切替部206−5のカメラ映像として表示する画面の選択制御に用いられる。
マップ表示部206−3、ブザー制御部206−4、映像切替部206−5の動作について、図3を用いて説明する。
HDD23に記憶されたマップデータ303を読み込み、メモリ202上にマップ画像(1)として記憶する。マップ画像 (1)に対して、HDD23に記憶されたカメラ台数/表示位置情報、ボタンの名称/表示位置情報のデータを読み込み、マップ画像 (1)にマップ表示切替ボタン301、カメラアイコン302、警報確認ボタン304、ブザー停止ボタン305を追加し、マップ画像 (2)として、メモリ202上に保存する。
アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び現在の侵入者・侵入物あり/なし)を元に、マップ表示切替ボタン301及び、警報確認ボタン304、ブザー停止ボタン305の色を変更する機能を有している。
本公知例は、侵入者・侵入物なしの場合にはマップ表示切替ボタン301の色を「緑」、侵入者・侵入物ありの場合にはマップ表示切替ボタン301の色を「赤」、マップ画像303に相当する場所(1F〜3F及び外周)のマップ表示切替ボタン301は色を「白」に設定する。
侵入者または侵入物なしの場合には、カメラアイコン302の色を「青」、侵入者または侵入物ありの場合にはカメラアイコン302の色を「赤」、モニタ部210に表示する表示カメラ映像307に相当するカメラは、カメラアイコン302の色を「橙」に設定する。
警報確認ボタン304、ブザー停止ボタン305は、通常「薄黄色」に設定し、「警報なし」から「警報あり」の状態に変わったときには、警報確認ボタン304、ブザー停止ボタン305の色は「赤」に設定する。
警報ありの状態でも、監視員がポインティングデバイス212を操作し、警報確認ボタン304または、ブザー停止ボタン305を選択した場合には、通常の「薄黄色」に設定する。これで、モニタ部210に表示するための表示マップ画像306が生成される。なお、ポインティングデバイス212は画面上のボタンなどをユーザが任意に指定することができれば良く、一般的にはマウスやタッチパネルが使われることが多い。
ブザー制御部206−4では、アラーム受信部206−2でメモリ202に記憶された各カメラの警報状態(1回前及び、現在の侵入者・侵入物あり/なし)及び、ブザー停止ボタン305の状態を判断し、ブザー211の鳴動及び鳴動停止の制御を行う。
各カメラの警報状態で1回前:侵入者・侵入物なしでかつ、現在:侵入者・侵入物ありでかつ、ブザー停止ボタン305が通常状態(ボタン色が黄色)であった場合にのみ、ブザー出力I/F207に対して、ブザー211を鳴動させるように制御する。監視員がブザー停止の操作(ポインティングデバイス212を操作。ブザー停止ボタン305が警報状態(ボタン色が赤)を選択)した場合、ブザー出力I/F207に対して、ブザー211の鳴動停止させるように制御する。
映像切替部206−5は、監視員の表示カメラ映像307の切替操作(ポインティングデバイス212を操作、カメラアイコン302を選択)した場合、表示カメラ映像307を監視員が選択したカメラに切替える。
映像受信部206−1で全てのカメラ映像をメモリもしくはHDD23に記憶している場合には、メモリもしくはHDD23に記憶されている表示カメラ映像307を読み込めば良いし、表示カメラ映像307のカメラのみメモリもしくはHDD23に記憶している場合には、映像受信部206−1で受信するカメラの切替、映像受信後に、表示カメラ映像307を読み込む動作となる。
映像切替部206−5は、アラーム発生していない状態(警報確認ボタン304が通常状態(ボタン色が黄色))に、新たにアラームが発生していた場合(各カメラの警報状態で1回前:侵入者または侵入物なしでかつ、現在:侵入者または侵入物ありのカメラあり)には、表示カメラ映像307を切替える制御も行うし、警報確認ボタン304が押された場合に、他のカメラでのアラームが発生していた場合には、アラーム発生しているカメラの映像に表示カメラ映像307を切替える制御も行う。
また、監視分野において、例えば駐車場などのカメラ監視では1台のカメラだけでは障害物によりカメラ画像に死角が発生してしまうことがある。また、死角をカバーするためにカメラを複数にすると、監視する空間は1カ所であるのに、カメラの台数だけ監視画像を表示するモニタが必要になる。一般に複数カメラの画像監視では、1つのモニタ画面を16分割した各領域に各カメラの画像を表示したり、時分割によりシーケンシャル表示したりして、1台のモニタで監視することもある。だが、モニタ台数は減っても分割画面の数だけ監視する情報が増えるため、モニタが複数台あるのと変わらずモニタを見る監視者に負担を強いることがある。
特開2005−117580号公報 特開2008−5450号公報 特開2000−331279号公報 特開2011−151459号公報 特開2006−148221号公報
前述の背景技術には、4つの課題がある。
第1の課題は、複数のカメラの視界のそれぞれに同時に複数の侵入者・侵入物が入ってきた場合に、モニタ表示されているカメラに対してのみしか状況確認ができない。その他カメラの確認を行うためには監視員の操作が必要となり、監視員が操作するまでのタイムラグによっては、確認した際にはそのカメラに侵入者・侵入物が映っておらず、結果として見逃しが発生する。
第2の課題は、カメラで視野が重複している部分があった場合には、単一の侵入者であっても複数のアラームが発生しうるため、侵入者が複数であるような状況と間違えやすい、或いは、全てのカメラに対してアラーム確認が必要となる点である。
第3の課題は、中規模・大規模監視システムでは監視カメラ設置場所マップ作成に労力がかかる。
第4の課題は、1カ所の空間を複数のカメラで監視すると、重なった領域を監視しているのにも関わらず、モニタ台数がカメラ台数だけ必要になる。
本発明の監視システムは、複数のカメラにより撮影された映像を取得する映像取得手段と、該映像取得手段で取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段を有する監視システムであって、映像表示制御手段は映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有し、映像表示制御手段は、平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする。
また、本発明の監視システムは、上述の監視システムであって、映像表示制御手段はさらにCG選択部を有し、映像表示制御手段は平面の地図画像にカメラの配置画像と透視立体物画像を重畳した第1の出力と、アラーム受信部でアラームを受信した場合に侵入者または侵入物を表すCG画像と侵入軌跡とカメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする。
さらに、本発明の監視システムは、少なくとも2台のカメラと、該カメラ画像を画像処理する画像処理装置を有する監視システムであって、画像処理装置は複数のマーカー処理部と俯瞰座標変換部と俯瞰画像作成部と、俯瞰画像合成部を有し、カメラは同じマーカーを撮影し、マーカーは前後左右の識別可能な図柄を有し、マーカー処理部はカメラ画像からマーカーを検出し、俯瞰座標変換部はマーカーを基準にカメラ画像に所定回転を施し、
カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成し、俯瞰画像合成部は、複数の俯瞰画像を1つの画像に合成することを特徴とする。
本発明によれば、複数のカメラを切替操作なく少ないモニタ台数で監視できるため、監視員の負担を軽減したモニタ表示を提供することができる。
また、カメラ画像を俯瞰画像に変換することで、1枚の監視画像で監視対象の空間の全体を把握することができる。
従来技術および本発明の実施例に係る監視システムのブロック図。 従来の監視システムのモニタ表示用PC105の機能を説明するブロック図。 従来の監視システムのモニタ表示を説明する図。 従来の監視システムの物体検知部102のブロック図。 本発明の実施例1の物体検知部2の機能ブロック図。 実施例1のモニタ表示用PC5の機能ブロック図。 モニタ表示用PC5による俯瞰表示のモニタ画面図。 モニタ表示用PC5による鳥瞰表示のモニタ画面図。 顔認識機能を備えたモニタ表示用PC5による俯瞰表示のモニタ画面図。 物体をCGで表示するモニタ表示用PC5のモニタ画面図。 本発明の実施例2の監視システムにおける仮想的な俯瞰画像を説明する図。 カメラの高さと距離の関係を説明するための図。 図12を真上から見た図。 撮像素子と像距離の関係を説明するための図。 実施例2の監視システムにおいて、マーカーを道路に置いた状態を示す図である 実施例2の監視システムのマーカー処理部2200のブロック図。 実施例2の監視システムの画像処理装置2000のブロック図。 複数カメラでマーカーを撮影し俯瞰画像を生成する配置を説明する図。 実施例2の監視システムの俯瞰画像合成部2005のブロック図。 実施例2の監視システムで使用するマーカーの他のデザインを示す図。
本発明の各実施例の監視システムは、建物等の監視領域を鳥瞰透視しているように、カメラ映像をマッピングして画面に表示する。マッシュアップ手法により、サードパーティが提供するオンライン地図等を監視領域の地図画像として利用することができる。また、検知された侵入者の像を、検知位置にあわせて拡大されたサイズで合成表示する。侵入者の像から、ビデオ内容分析(VCA)技術により個人が特定され、侵入者はカメラに映るたびにその位置が特定され、追跡される。
実施例1の監視システムは、5台のカメラ1、5台の物体検知部2、5台の映像配信部3、LAN_SW4、及びモニタ表示用PC5で構成される。つまり、システムレベルでの構成は図1に示す従来システムと同じであり、説明を省略する。
(物体検知部の機能)
図5は、実施例1の監視システムの物体検知部2の機能ブロック図である。物体検知部2は、画像入力I/F21、画像メモリ22、ワークメモリ部23、CPU204、画像出力I/F25、プログラムメモリ26、ブザー出力I/F27、LAN_I/F28、データバス29、で構成されている。物体検知部2は、ハードウェア上は、従来の物体検知部102と構成が似ているが、プログラムメモリ26に格納されたプログラムが従来とは大きく異なる。
プログラムメモリ26は、画像取込部31、背景作成部32、差分処理部33、二値化処理部34、ラベリング部35、追跡処理部36、判定処理部37、物体種別判定部38、表示用物体領域抽出部39、ワールド座標算出部40、表示用軌跡作成部41、及び、表示用データ作成部42の機能モジュールで構成されている。
画像取込部31は、画像入力I/F21を用いてカメラ1の映像を取り込むことで、例えば、0〜255の256階調の輝度信号で構成される入力画像に変換し、入力画像を画像メモリ22に保存する。
背景作成部32は、画像メモリ22に記憶された入力画像を、一定数取り込みながら、例えば加重平均するなどの方法で物体のいない背景画像を生成し、画像メモリ22に保存する。なお、この侵入者・侵入物検知は物体の存在時間が短い場所で使われることを前提としている。
差分処理部33は、画像メモリ22に記憶された背景画像と入力画像の画素ごとの差分を算出し、差分画像を画像メモリ22に保存する。
なお、背景画像と入力画像の画素ごとの差分とは、変化した部分を抽出する絶対値差分(|入力画像−背景画像|)、背景に対して明るくなった部分を抽出する差分(入力画像−背景画像)、背景に対して暗くなった部分を抽出する差分(背景画像−入力画像)であり、これは用途によって選択されるものである。
二値化処理部34は、画像メモリ22に記憶された差分画像をしきい値処理し、例えば輝度値の階調が256段階であれば、差分値が所定のしきい値未満の画素を輝度値0、しきい値以上の画素を輝度値255とした二値画像を生成し、画像メモリ22に保存する。
ラベリング部35は、二値画像で得られた白画素に対してかたまりごとに番号付けを行い、物体個数の算出及び、ラベリング画像を画像メモリ22に保存するとともに、ラベリング画像に対して、特徴量抽出処理を行い、各物体の面積・幅・高さ・足元の位置の情報が得られる。
追跡処理部36では、ラベリング処理部35で得られた足元位置の情報を、過去と現在との間で比較し、最も足元位置の近いものを同一物体として関連付けることで、物体の追跡を行い、物体ごとに出現時間、滞在時間、軌跡情報、消失してからの経過時間(消失していない場合には0、消失時間が一定以上になるとその軌跡情報は削除)を算出する。
判定処理部37では、ラベリング処理部35で得られた足元位置情報、面積、幅、高さと、追跡処理部36で算出された物体ごとの滞在時間、軌跡情報を用いて、予め設定した検知条件に合致するか否かを判定し、検知条件に合致した場合には、侵入者・侵入物ありと判断し、侵入者・侵入物ありのフラグ及び、侵入者・侵入物の足元位置情報(画面上のX,Y位置)、幅、高さをワークメモリ23に記憶する。
なお、判定処理部37の予め設定した検知条件とは、画面上に仮想エリアを設定し、その仮想エリアに物体が入ってきたときもしくはその仮想エリアに滞在時間以上物体が存在した場合に検知する。また、境界ライン即ち画面上に仮想ラインを設定し、その仮想ラインを物体が指定方向に横切った場合に検知する。さらに物体の大きさを条件に入れてもよい。
物体種別判定部38は、CGで作成された物体画像1001をモニタ表示用PC5で選択するために必要となる物体種別情報を生成する。物体画像1001は視認性の良いアイコン、イラストの類でもよく、詳細は後述する。物体種別としては、人,車,二輪車に乗った人,その他物体とする。
なお、判定処理部37では、侵入者または侵入物と判断された物体に対して、物体種別を算出する。
物体種別の判断方法としては、以下の分類方法がある。
大きさ判定による分類は、物体の幅(画素)、高さ(画素)を、カメラの設置条件(カメラの高さ、俯角、焦点距離、CCDサイズ)と物体の足元位置から実際の物体の幅(m)、高さ(m)を算出し、人、二輪車(自転車,バイク)に乗った人,車,その他の4種類に分類する。
速度による分類は、大きさ判定による分類で人、二輪車に乗った人と判断された物体に対して、最新と最古の軌跡情報(画素)を、カメラの設置条件、例えば、カメラの高さ,俯角,焦点距離,CCDサイズから実際の距離(m)に変換し、最新と最古の軌跡情報の時間差から速度を算出することにより、人と二輪車に乗った人を分類する。
上記の大きさ判定による分類、速度による分類で判断された分類精度を向上する方法として、物体の輪郭線の類似性を見る方法がある。
まず、物体が存在する位置周辺に対して、ラプラシアンフィルタなどのエッジ抽出処理により物体の輪郭線を抽出し、抽出した物体の輪郭線と、予め用意しておいた人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルのどれに一番類似性があるかを判断することにより、人,車,二輪車に乗った人に分類し、どのモデルにも類似性がない物体はその他に分類する。
ここで、類似性をみるためには、予め用意した人の輪郭線モデル,車の輪郭線モデル,二輪車に乗った人の輪郭線モデルは、物体の位置(カメラからの距離(m))により拡大または縮小を行い、物体の大きさ変化の影響をなくすものとする。また、物体が存在する位置周辺範囲全てに対して類似性を算出することで、二値化処理部34で得られた二値画像や、ラベリング処理ステップ35で得られた物体の位置,幅,高さが、実際の物体よりも小さく検出されていた場合でも、分類精度を向上することが可能となる。
表示用物体領域抽出部39は、モニタ表示用PC5で表示する物体画像803を抽出するものである。物体画像803については図8の説明で後述する。
一般的に二値化処理部34で得られた二値画像や、ラベリング処理部35で得られた物体の位置,幅,高さを用いた場合には、影・物体のコントラストの影響を受け、物体の一部が欠けるもしくは物体よりも大きすぎるといった問題があり精度が低い。
そのため、得られた物体の足元位置、幅、高さを、物体種別判定部38で得られた物体種別に応じて拡張(例えば、人の場合、足元位置、幅、高さを物体の幅50cm、物体の高さ1.7m分拡張)し、拡張した範囲内でラプラシアンフィルタなどによりエッジ抽出を行い、エッジが一番密集している部分を中心として、物体種別に応じた範囲+規定範囲(例えば、5%)の範囲を切出すことによって、物体の範囲をかけることなく切出す。
また、影の影響に対しては、画像メモリ22に記憶された背景画像と入力画像の相関性を判断し、相関性が高い部分を物体以外、相関性が低い部分を物体と判断して得られた範囲に対して、上記の処理を行うことによって、影の影響を減らすことが可能となる。
ワールド座標算出部40は表示用物体領域抽出部39で算出した物体の足元位置を、カメラの設置条件(カメラの高さ、俯角、焦点距離、CCDサイズ)を利用して、カメラからの距離に変換するとともに、予め設定されたカメラの位置情報(敷地内のマップの左上の点を(0,0)としたときのカメラの相対位置(単位はメートル))を足すことで、実際の敷地上の位置情報を算出する。
表示用軌跡作成部41は、追跡処理部36で得られた軌跡情報(画素)を、ワールド座標算出部40と同様にカメラの設置条件を利用して、カメラからの距離に変換するとともに、予め設定されたカメラ位置を足すことで、実際の敷地上の位置情報を算出する。
ここで、軌跡は追跡処理部36を使うこととしたが、表示用物体領域抽出部39の処理を、追跡処理部36より前に行うことで、精度を向上することもできる。
表示用データ作成部42は、物体種別判定部38で得られた物体種別情報、表示用物体領域抽出部39で得られた物体画像803、ワールド座標算出部40で得られた物体の実際の敷地上の位置情報、表示用軌跡作成部41で得られた実際の敷地上の軌跡情報を、一つのデータ、例えばステータスメッセージやファイルとしてまとめ、まとめたデータはLAN_I/F201を介してモニタ表示用PC105に送られる。物体画像803は、不定期に発生しうるので、フレーム間予測符号化の適用は困難であり、JPEGやイントラ予測符号化を用いて圧縮されることになるが、これは表示の遅延を抑える効果もある。
(モニタ表示用PCの機能)
図6に、実施例1におけるモニタ表示用PC5の機能ブロック図が示される。
モニタ表示用PCは、カメラ映像の表示を制御する手段であり、本例のPC5は、物体の位置情報を元に重複物体を削除する機能や、顔切出し及び顔認証機能を利用して重複物体を削除する機能や、モニタ表示画像801に物体画像(顔)1201を重畳する機能を有しうる。
まず、物体の位置情報を元に重複物体を削除する機能について図6、図8、図9を参照して説明する。
図6に示されるモニタ表示用PC5中で、符号21〜29に係る構成は、26を除き従来のモニタ表示用PC105における201〜209と同様であるため、説明を省略する。プログラムメモリ26は、座標変換部51、マップ作成部52、位置判定部53、物体重畳部54、軌跡重畳部55を有する点で従来と異なる。
座標変換部51は、HDD23に記憶されている市販地図や航空写真、衛星写真、或いは米国グーグル社などが提供しているオンライン地図であって建物の形状が把握できる程度の縮尺の画像を、所定の透視図法における所定の視点からの映像(鳥瞰表示・俯瞰表示)に変換し、地図画像801とする。俯瞰表示は、図9に示されるように地表を斜め下方向に眺めたような表示であり、CGなどで一般的に使われている透視変換を用いて元の地図画像を座標変換して得られる。この地図画像801を一番下のレイヤー(レイヤ0)とする。ここに、地図画像801に対応した透視図法及び視点で、建物の骨格をワイヤーフレームモデルで描画した建物フロア図(鳥瞰)802を重畳する。つまり建物フロア図(鳥瞰)802はレイヤ0より上のレイヤ1に描画される。建物の骨格情報は、初期的には、地図画像801における建物の輪郭からポリゴンとして再現し、与えられた階数の分だけ上方に押し出して生成する。一方、鳥瞰表示は、図8に示されるように地表面を真上から見下ろしたような表示でありd、正投影法などが用いられ、通常は地図画像がそのまま利用できる。
マップ作成部52は、座標変換部51で作成された地図画像801の上に、建物フロア図(鳥瞰)802を重畳した画像上に、HDD23に記憶された実際の敷地上のカメラ位置情報(画面上の左上を(0,0)とした場合のカメラ位置(m))で指定された位置に、カメラアイコン302を重畳するとともに、画面上の指定された位置に警報確認ボタン304、ブザー停止ボタン305を重畳する。つまり、カメラアイコン302等は、レイヤ2に描画される。
位置判定部53は、物体検知部2のそれぞれから送信された実際の敷地上の位置/軌跡情報を元に、物体の重複を判断する。複数の物体検知部2から得られた実際の敷地上の位置/軌跡情報を比較および照合し、誤差が規定値以内(例えば、5%)であった場合には同一物体と判断する。同一物体と判断した場合、表示する物体画像が解像度(画素数)の最も高い方の位置情報を残し、解像度の低い位置情報は削除する。
物体重畳部54は、位置判定部53からの指示に基づき、物体検知部2から受信した物体領域画像を、物体画像803(803−1、803−2)として、物体検知部2から送信された実際の敷地上の位置情報部分に透過率0で重畳する。つまり最も上のレイヤ4に描画する。この時、物体画像803が示す人物の足元の位置は実際の位置に対応するが、サイズは変更しない。つまり物体画像803はカメラで撮影された時の画素数のまま構成しているため、実際の地図上の縮尺とは違う(大きい)画像で物体が表示され、監視員が見やすい物体画像を提供することができる。
ただし、物体重畳部54は、カメラ1から受け取った物体画像803のサイズが規定値以下であった場合には、拡大処理+バイキュービック補完などの補完処理をすることにより、画質劣化が少なく見やすいサイズに拡大してもよい。また、建物内で検知された物体画像803を重畳する場合には、建物フロア図(鳥瞰)のフロアごとに吹き出し図形を描画し、その吹き出しの中に各フロアに設置しているカメラで撮影した物体画像803を並べて表示してもよい。
軌跡重畳部55は、位置判定部53からの指示に基づき、物体検知部2から受信した実際の敷地上の軌跡情報に基づいて軌跡804をレイヤ3に描画し、地図画像801上に重畳する。
図8は、モニタ表示用PC5によるモニタ画面の俯瞰表示の例である。モニタ表示用PC5に接続された2つのモニタ部210−1、210−2は、横に隣り合うように並べて設置され、地図画像801はモニタ部をまたがるように連続的に画面全体に表示される。俯瞰では、表示上の高さが圧縮され横に長い表示画面となるので、このようなマルチディスプレイ構成が好適である。鳥瞰・俯瞰切替ボタン808は、鳥瞰・俯瞰を切り替えるもので、図8は俯瞰の状態なので、切替先の鳥瞰を示すアイコンが表示されている。ポインティングデバイス212がマウスの場合、地図画像801上で右ボタンを押しながらドラッグすれば視線の方向を変更でき、左ボタンを押しながらドラッグすれば地図画像801をスライド、つまり視線が地表と交差する点を変更できる。地図画像801はその点が中心となるように表示される。
図9は、モニタ表示用PC5によるモニタ画面の鳥瞰表示の例である。モニタ表示用PC5に接続された2つのモニタ部210−1、210−2は、隣り合うように並べて設置され、地図画像801はモニタ部をまたがるように連続的に画面全体に表示される。鳥瞰・俯瞰切替ボタン808は、鳥瞰・俯瞰を切り替えるもので、図8は俯瞰の状態なので、切替先の鳥瞰を示すアイコンが表示されている。ポインティングデバイス212がマウスの場合、地図画像801上で右ボタンを押しながらドラッグすれば視線の方向を変更でき、左ボタンを押しながらドラッグすれば地図画像801をスライド、つまり視線が地表と交差する点を変更できる。地図画像801はその点が中心となるように表示される。
次に、図6、図9を参照して、顔切出し及び顔認証機能を利用して重複物体を削除する機能と、モニタ表示画像801に物体画像(顔)1201を重畳する機能について説明する。この機能は主に、図6のモニタ表示用PC5における顔認証部56、顔重畳部57により実現される。
顔認証部56は、映像配信部103から受信しメモリ22等に保存されている映像に対し、顔検出技術を使用して映像中の人の顔の領域を検出し、その領域の画像特徴量を計算し、その領域から切出した顔画像データや時刻、位置情報等とともにHDD23に記録する。顔検出に用いられる判別器や抽出する特徴量には、公知のJoint Haar-linke特徴が利用できる。なお人物の顔だけでなく全身像を検出する場合は、CoHOG(Co-occurrence Histograms of Oriented Gradients)等が利用できる。映像全体からリアルタイムに顔や人影を検出することが困難な場合、物体画像803の内部での検出を優先し、余力があればフレームを間引きするなどして処理する。顔の位置情報としては、対応する物体画像803の位置情報がそのまま利用できる。
そして、今検出されたばかりの顔を1つずつキーとして、今検出された他の顔及び過去にHDD23に記録された顔画像の中から、特徴量の類似する顔を探索し、同一人物かどうか照合する。同一と判断された時は、物体ID、軌跡情報(HDD23に記録された当該人物の過去の位置情報)等が返される。ここで同一人物には同じ物体IDが付される。
顔認証部56は、ほぼ同一時刻(及び同一の場所)で、同一と判断された人物等に対しては、解像度の最も高い、若しくは顔検出時のスコア(顔らしさ、或いは検出の信頼性を示す)が最も高い画像1つだけに絞って、位置判定部53や顔重畳部57に通知するとともに、解像度の低い人物を撮影したカメラのIDや該人物の位置情報等、冗長なアラームとの対応付けが可能な情報を、警報状態を管理するブザー制御部206−4に通知する。これにより冗長な警報が削除される。通知を受けた位置判定部53は、顔認証による軌跡が優先して表示されるように、物体重畳部54を制御する。
顔認証部56はまた、時刻や場所が多少異なっても、同一と判断された人物等に対しては、同一人物が移動したもの(つまり一件の侵入事象)と推定して、古い方のアラームを新しいアラームで上書きする。ここで言う上書きには、例えば古いアラーム受信IDと同じIDを新しいアラームでも使うことなど、これらのアラームを統合できる様々な手法が含まれる。HDD23には、追跡処理部よりも長時間、消失後の軌跡が保持されており、一端途切れた軌跡を連結することができる。
顔認証部56は、同一と判断された人物等に対しては、解像度やスコアの最も高い画像を1乃至所定数だけ残して、新たな軌跡情報を加えて統合された軌跡情報とともにHDD23に記憶させ、記録にない(つまり初めての)人物等に対しては、今の顔画像、物体ID、物体検知部2からの位置情報や軌跡情報(もしあれば)をHDD23に記憶させる。なおHDD23には、追跡したりモニタ画面へ表示したりする必要のない人物(例えば従業員)の顔をホワイトリストとして記憶させてもよい。この場合顔認証部56は、ホワイトリストの人物と一致しても何もしない。
顔重畳部57は、顔認証部56で得られた顔画像と実際の敷地内の位置情報を使用して、地図画像801に物体画像(顔)1201を重畳し、HDD23に記録された軌跡情報を使用して地図画像801に軌跡804−1を重畳する。この重畳は、ユーザが特別な操作をしない限り、顔が検知されなくなった後も所定時間、最後に検知された位置で維持される。顔が検知できなくても追跡処理部36の追跡が続いていれば、更新された物体画像804が最新の位置に表示されうる。
なお、建物内で顔検出された場合や、ある領域内で検出された顔の密度が高い場合、物体画像(顔)1201を正確な位置に重畳する代わりに、フロアや領域ごとに吹き出しを作成し、その吹き出しの中に物体画像(顔)1201を並べて表示し、軌跡は、特定の物体画像(顔)1201を選んだ時だけ表示するようにしてもよい。
以上説明した処理を行うことにより、図9のモニタ表示を実現することが可能となる。重複を削除するには、顔認証の他、RFID(Radio Frequency IDentification)などによる物理セキュリティーシステムと組合せる方法もある。
次に、図1、図6、図7、図10を参照して、物体画像をCGで表示する機能を有したモニタ表示用PC105について説明する。この機能は主に、図6のCG選択部58により実現される。図6のモニタ表示用PC105のその他の構成は前述と同様であるため、説明を省略する。
CG選択部58は、物体検知部2の物体種別判定部38で算出された物体種別情報を参照し、HDD23から物体種別にあった物体画像(CG)1001を読み込み、地図画像801や建物フロア図(鳥瞰)802より上のレイヤに描画することで重畳表示する。つまり、図7において、実写の物体画像803に代えて、規定のアイコンを表示するようにしたものである。このようにすれば、物体画像803を得るためだけに映像受信部26−1で映像復号処理を行う必要がなくなるほか、物体画像803の数が多い場合や不鮮明な場合は、物体画像(CG)1001の方が視認性や把握できる情報量に優れる場合がある。例えば不審さの程度に応じて色などを変えることができる。物体画像(CG)1001が地図画像801にあまり使われていない色であれば、視覚的に目立たせることができ、その色の面積から物体の数などが把握できる。
ただし、物体画像をCGにした場合には実際のカメラの映像を見たくなるため、物体画像(CG)1001をポインティングデバイス212で選択した場合には、映像切替部26−5は、図7のような表示から、図10のような表示に切り替える。つまり、図10では、モニタ部210−1には、物体が存在する部分のみの地図画像801、建物フロア図(鳥瞰)802、カメラアイコン302、物体画像(CG)1001、軌跡804が鳥瞰或いは俯瞰表示され、モニタ部210−2には選択されたカメラ映像が座標変換なしにそのまま表示される。さらにモニタ部210−1には、表示切替ボタン1101が表示される。ユーザが表示切替ボタン1101を押すと、映像切替部26−5は、その表示様態を図7のような連結表示に戻す。
以上説明した様に、物体画像をCGで表示する方法は、建物フロア図(鳥瞰)に人数分重畳することが可能となるため、建物が多数存在するような監視場所においては、有益な表示方法である。物体画像をCGで表示することで、顔が大きく映っているような場合でも、プライバシー保護した形で外部に証拠画像として容易に提供することができる。また、人が群れているなどして物体の一部しか見えない場合にも、見やすい映像を提供することが可能となる。
実施例2の監視システムは、監視エリアに設けた標識(マーカ)を、複数のカメラで撮像することで、カメラのキャリブレーションを行う画像処理装置2000を備えたものであり、その他の構成は実施例1の監視システムと同じである。
図11は、監視カメラで一般的に得られる俯瞰画像を示す図である。広範囲に撮像するため、カメラ141を設置する際は、俯角を浅く(水平よりやや下向き)し、道路143の奥行き方向が見えるように設置するのが一般的である。しかしこのカメラで見える視野142では奥行き方向(カメラ画像144をモニタで見るとモニタ画面の上方向)に行くに従い、画面上での距離が縮まって見える。つまり、車140が手前を走行している場合と奥を走行している場合とでは画面上でのスケールが異なるため、距離が判る他の情報がないと、カメラから車までの距離を把握するのが困難になる。
そこで、図11のように仮想的な俯瞰画像155に変換することで距離を把握しやすくする。
カメラ141で撮影した画像を画像処理により、あたかも真上からカメラで撮影したような画像に変換する。ここではこの真上に位置する仮想的なカメラを俯瞰カメラ145と称す。この俯瞰カメラ145で撮影した俯瞰視野146は、あたかも地図上で矩形に切り取ったように、どの位置でもスケールが一定であり、道路143を走行する車140の位置が把握しやすくなる。以降、仮想的な俯瞰カメラ145で撮影した俯瞰視野146内の画像を俯瞰画像148と称する。
次にカメラ画像144から俯瞰画像148を作成するのに必要なカメラの設置条件(以降はカメラパラメータと称する)ついて、図12乃至図14を用いて概念的に説明する。
図12はカメラ支柱166の上にカメラ141を高さHの位置に設置した様子を真横から見た状態を示す。このときカメラ141は道路143に向かって下向きに設置され、カメラ141の中心を通る光軸は角度θで距離Xだけ離れた車の中心を撮影している。このとき、H、X、θには次の式1の関係が成り立つ。
X = H × tan(θ) ・・・・・ 式1
但し、カメラ支柱166と道路143は直角を成すとする。この式を変形すると式2のようになる。
θ = atan(X/H) ・・・・・ 式2
式2はカメラ141の画面中心に映る物体までの距離Xとカメラの設置高さHが分かれば、カメラが向いている角度θが分かることを示す。
さらに、図13はカメラ141とその被写体を真上から鉛直下向き見た状態を示す。
一例として、被写体a173と被写体b174の2つが、レンズ172の主点からそれぞれ距離Xa、Xb離れた場所にあり、被写体a173の方が被写体b174より近くにあるとする。またカメラの光軸は、両被写体の中心に直角に交差する。被写体a173の端から光軸までの距離がYaの長さであるときに、その端からの光はカメラ141に搭載されたレンズ172を通り撮像素子171の端に届いているとする。撮像素子171の端から光軸までの距離(像高)はZaとする。この被写体a173の端からレンズ172の主点を通って撮像素子171に届く光線は、光軸に対しφaの角度をなす。被写体b174と撮像素子171に関係する光軸からの距離Yb、焦点位置での光軸からの角度φbも被写体a173と同様である。
また、被写体a173と被写体b174の大きさは同じである場合、被写体表面の光軸から端までの距離は式3の関係にある。
Ya = Yb ・・・・・ 式3
2つの被写体は同じ大きさであるが、カメラ141からの距離が異なるため、式4に示す関係である被写体b174の端からレンズ172に入る光の角度θbは、被写体a173の角度θaよりも小さい。
θa > θb ・・・・・ 式4
図14は撮像素子と焦点距離の関係を説明するための図である。
図14は、カメラ141が被写体a173と被写体b174を撮影したものであり、図中のφaとφbは図13で説明した角度と同じである。但しレンズ172を通った後の光の経路を図示しているため、角度φa、φbを上下反転して図示している。一般にレンズ172内の焦点183から撮像素子171までの光軸での距離を焦点距離f182とする。被写体a173の端から出た光は撮像素子171の表面上で光軸から距離Za離れた位置に届く。同様に被写体b174の端から出た光は光軸から距離Zb離れた位置に届く。この例では被写体a9の端を出た光は撮像素子7のちょうど端に届いている。光軸に対して撮像素子7と被写体a173、被写体b174が直角を成し、光軸が被写体の中心であるとき、距離Zaと撮像素子サイズ181は式5の関係にある。
撮像素子サイズ = Za × 2 ・・・・・ 式5
被写体b174について図14を見ると、被写体b174の端を出た光が角度φbで撮像素子171に届く。式4の関係から撮像素子171に届いた光は光軸から距離Zbの位置であり、式6の関係にある。
Za > Zb ・・・・・ 式6
被写体a173と被写体b174は式3に示すように同じ大きさであるが、撮像素子171上では式6に示すように被写体b174の方が小さくなっている。これは2つの被写体の距離が異なるためであり、遠くにあるほど小さく見えるのはこのためである。
ここで図13と図14を合わせると式7と式8の関係にある。
Xa / Ya = f / Za ・・・・・ 式7
Xb / Yb = f / Zb ・・・・・ 式8
式7と式8を距離XaとXbを求める式に変形すると式9と式10になる。
Xa = Ya × f / Za ・・・・・ 式9
Xb = Yb × f / Zb ・・・・・ 式10
ここで、fは像距離(レンズの主点から像面までの距離)で、用いるレンズ172により与えられ、ZaとZbは撮影された画像上で計測できる値であるため、被写体の大きさYaとYbが分かれば被写体までの距離XaとXbが求まる。
よって、被写体が真横から見たときに光軸上にあるならば、被写体までの距離が求まり、式2のXに距離を代入することで、大きさが分かっている被写体を撮影しているカメラ141の角度θが求まる。
本実施例2では、大きさが分かっている被写体を監視エリアの地面や床に置いて撮影することで、カメラ141のカメラパラメータである角度θ等を求める。以降、その被写体をマーカーと称する。
図15は、マーカー192を道路143に置いた状態を示す図である。マーカー192は大きさが分かっている正方形もしくは長方形であり、その表面の模様から向きが分かるようになっている。説明を容易にするため、マーカーの辺は光軸に直交する場合を例示している。
図15において、カメラ画像191には、道路143とマーカー192が映っている。モニタ画面191の上方向が奥行きにあたるため、マーカー192は下辺よりも上辺が短く見えている。これは式6の関係に相当する。像面上でのマーカー192の下辺の半分の長さをZa、上辺の半分の長さをZbとすると、カメラ141から上辺、下辺までの距離Xa,Xbは、式9、式10で求めることが出来る。カメラ141の角度θは、設置高さHが与えられれば、距離Xa,Xbの平均値をXとして、式2で近似的に求めることができる。
より一般的な条件でカメラパラメータを求めるには、特許文献4や5に記載の手法を用いればよい。
図16に、本実施例2においてカメラパラメータを計算するマーカー処理部2002の構成を示す。
入力するカメラからの画像2201にはマーカー192が映っている。マーカー192を探し出すため、直線検出部2202は、ハフ変換などを用いて画像内の直線成分を求める。マーカー192は所定の大きさであるため、画像中に映るマーカーの大きさ程度の長さの直線に絞って直線をピックアップする。求めた直線の座標を後段のマーカー位置検出部2203に出力する。
マーカー位置検出2203は、求めた直線の内、四角(奥行きが縮まっているので台形に変形して見える)になっている閉じた直線部分をピックアップする。そしてマーカー14の中心位置がカメラ画像のどの座標位置にあるかを記憶しておく。
さらに後段のマーカー傾き計算部2204では、台形に変形して見えるマーカー192の上辺と下辺の長さの割合から、マーカー192の上辺と下辺それぞれの、カメラからの距離を求めることが出来る。この直線が傾いて見えても問題は無く、直線の中心位置を距離の始点とすれば良い。
カメラパラメータ算出部2205は、マーカー192の上辺と下辺のカメラからの距離を元に、カメラの角度θを求めて俯瞰座標変換に使うための情報として出力する。得られたカメラパラメータは、物体検知部2との双方向通信によりワールド座標算出部40に通知されうる。
一旦カメラパラメータが決定されれば、カメラ画像191を俯瞰画像193に変換することができる。正方形のマーカー192の上辺と下辺は本来、同じ長さであり、俯瞰画像191では同じ長さに表れている。カメラ画像(a)では奥に行くに従い物体が縮まって見えていたのが、俯瞰画像に変換したことで、奥行きへの縮まりが無くなり奥行き方向への距離が分かりやすくなる。
例えば、手前に映っている1mの物体と、最も奥に映っている1mの物体が、俯瞰画像(b)では同じ大きさで表示される。つまり、俯瞰画像を作成するには、本来同じ大きさである物体をモニタ画面191の上でも同じ大きさになるよう投影すれば良い。
図18は、複数のカメラで同じ領域を撮影した画像の連結を説明する図である。
カメラA2103が撮影しているカメラA視野2104には障害物2105があり、カメラA死角2106が発生している。その死角になり見ることが出来ない領域を撮影するため、カメラB2101を設置しカメラB視野2102でカメラA死角2106の領域をカバーしている。
この図18のようにカメラが設置されてる場合、カメラA視野2104とカメラB視野2102が重なる位置にマーカー2107を置く。このマーカー2107を基準に各カメラの画像を俯瞰画像に変換する。俯瞰画像に変換後、各カメラの画像を合成して1枚の画像にする。マーカー2107の模様は向きが分かるようになっているので、マーカー2107がちょうど重なるように、アフィン変換(リサイズと回転)を行ってから合成する。モニタ210にはこの合成後の俯瞰画像を表示するので、監視者は複数のカメラ画像を1枚の画像として監視することが出来る。
図17に、上述の画像変換や合成を行う画像処理装置2000のブロック図が示される。
画像処理装置2000は、複数のカメラの入力を受けるため、内部では同じ処理が並列して設けられるが、各カメラで共通な処理はカメラ番号1から入力されるカメラ画像2001−1の処理を代表して説明する。
カメラ画像2001−1は、図16で説明したようなマーカー処理部2002−1に入力し、マーカーの画像情報からカメラパラメータを算出し、後段の俯瞰座標変換部2003−1に出力する。
俯瞰座標変換部2003−1は、入力したカメラ画像2001−1をマーカー処理部2002−1で算出したカメラパラメータ(カメラ角度)を元に仮想的な俯瞰カメラで見たような真上からの画像に変換するため、どの画素を俯瞰画像のどこに対応づけるかを算出して、俯瞰画像作成部2004−1に出力する。
俯瞰画像作成部2004−1は、俯瞰座標変換部2003−1で算出した俯瞰画像変換後の座標に各画素を配置して出力する。カメラで撮影した画像ではモニタ画面2006の上に行くほど大きさが縮まっていたが、俯瞰座標に変換することで同じ大きさの物体であればモニタ画面2006のどこに置いても同じ大きさになる。
俯瞰画像合成部2005は、複数のカメラからの俯瞰画像を1枚の画像に合成してモニタ2006に出力する。
図19に、俯瞰画像合成部2005のブロック図が示される。
入力する画像は俯瞰に変換した画像であり、その俯瞰画像がカメラの台数だけ入力される。1、2、・・・、nまでのn台のカメラが接続されている場合を例に説明する。
俯瞰画像合成部2205は、n枚の俯瞰画像のうち、1枚は基準俯瞰画像として、他の俯瞰画像を基準俯瞰画像に合わせて位置を調整する。この例では1番目のカメラの画像から作成した俯瞰画像を基準俯瞰画像と称して説明し、基準俯瞰画像以外の動作説明は2番目のカメラの画像を例に説明する。また、マーカー192の位置合わせをするアルゴリズムは色々な手段が考えられるが、ここでは俯瞰画像を回転して基準俯瞰画像と一致するまで回転を続けることでマーカー位置を一致されるアルゴリズムを例に説明する。他の実現手段として直線部分に着目して位置合わせを行うなど、画像処理で使われるパターンマッチング処理であればどのような手段で実現しても構わない。
2番目のカメラ画像から作成した俯瞰画像2401−2は、俯瞰画像移動回転部2402−2に入力する。マーカー192の位置が中心になるよう画像を移動して、小さな角度で、例えば角度1度などで俯瞰画像を回転して、パターンマッチング部2403−2に出力する。なお、回転処理に必要なマーカーの中心座標は図16のマーカー位置検出部2203ですでに求めている。
パターンマッチング部2403−2は、俯瞰画像と、基準俯瞰画像である1番目のカメラとマーカー画像の同じ画像になるか画素単位で比較を行う。
このときにカメラ毎に明るさが異なる場合があるので、ある程度の明るさのばらつきは許容するようにしておく。例えば、画素の明るさが256階調であったならば、1/4の64階調にして比較するなどの手段がある。もしくは白と黒の明るさが両者で同じ値になるよう明るさの正規化処理を行っても良い。
パターンマッチング部2403−2のパターンマッチング結果は、前段の俯瞰画像移動回転部2402−2に戻す。パターンマッチングの結果が一致であれば後段の俯瞰画像重ね合わせ部2404に回転した俯瞰画像を出力する。
俯瞰画像移動回転部2402−2は、パターンマッチング部2403−2からパターンマッチングの結果が不一致であるという結果が返った場合、更に俯瞰画像の回転を小さな角度(例えば、1度など)を行う。この結果を戻すループはパターンマッチング結果が一致になるか、360度回転まで続ける。
このようにして1番目の基準俯瞰画像と、2〜n番目の俯瞰画像を全て俯瞰画像重ね合わせ部2404に入力し、マーカー位置で1枚の画像に重ね合わせて、俯瞰合成画像2405として出力する。また、パターンマッチング部2403で得られたカメラ間の相対位置を示す情報は、ワールド座標算出部40に通知されうる。
なお、マーカー192のデザインの一例を図20の(a)(b)(c)に示す。
マーカー192の外周は黒線で縁取りし、その内側に白い帯、さらに内側に黒線で区切った中をマーカー192が回転しても向きが分かるようなパターンにしている。黒枠の内側を白い帯にしたのは上辺と下辺の直線を検出しやすくするためである。マーカー192の色は白黒でなくても構わないが、明るさ成分だけで画像処理を行う方が処理を単純化しやすいのと、照明に色が付いても判別しやすい点で白黒のパターンが扱いやすい。またマーカー192の各辺が直角に交われば長方形でも構わないが、回転処理を行うために正方形が扱いやすい。
以上説明した様に、本実施例2では、カメラに映ったマーカー192を画像の中から探しだしてカメラパラメータを求め、そのカメラパラメータから俯瞰画像に変換するための角度を求める。求めた角度に従い変換した各々の俯瞰画像のマーカー192を基準にして1枚に合成してモニタ2006に出力することで、1枚の俯瞰画像を作成する。
なお、画像処理装置2000は、別途ハードウェアを備えずとも、モニタ表示用PC5や物体検知部2のCPUで実現することもできる。
また装置に入力される画像はライブ映像でなくても良く、ハードディスクなどの記録媒体に記憶された画像データや、ネットワークを経由して入力される画像データでも良い。その画像データは画像圧縮処理が施された画像データでもよく、その場合は画像伸張処理を行った後に上記で説明した処理を施せば良い。さらに俯瞰画像の出力先はモニタでなくても良く、ハードディスクなどの記録媒体、ネットワークなどでも良い。
また、複数のカメラで撮影した画像は俯瞰表示だけではなく、カメラで斜め上から見たような鳥瞰表示にしても構わない。真上から見た画像に座標変換する際に使用する傾きの数値を変更するだけで容易に鳥瞰表示にも対応できる。一度全てのカメラ画像を俯瞰表示に変換して1枚の画像に合成した後に、その1枚の俯瞰画像に対して座標変換処理を行い鳥瞰表示に変換しても良い。建物の各フロアを表示する鳥瞰画像を作成する手段として、このマーカーを使っても複数のカメラ画像を合成しても構わない。さらにこのマーカーを使って複数カメラの画像を合成した俯瞰画像や鳥瞰画像に対し、侵入者や侵入物と、その軌跡や顔認証の結果を合成しても構わない。
本発明は、CCTV(Closed-Circuit TeleVision)など、監視の目的で遠隔の映像を表示する装置、システム、管理ソフトウェア等に適用可能であり、業務用のほか、一般家庭や個人に対するサービスとしても提供されうる。
1:カメラ、2:物体検知部、3:映像配信部、4:LAN_SW、5:モニタ表示用PC、
21:画像入力I/F、22:画像メモリ、23:ワークメモリ、24:CPU、25:画像出力I/F、26:プログラムメモリ、26-1:映像受信部、26-2:アラーム受信部、26-3:マップ表示部、26-4:ブザー制御部、26-5:映像切替部、27:ブザー出力I/F、28:モニタ出力I/F、29:データバス、
31:画像取込部、32:背景作成部、33:差分処理部、34:二値化処理部、35:ラベリング部、36:追跡処理部、37:判定処理部、38:物体種別判定部、39:表示用物体領域抽出部、40:ワールド座標算出部、41:表示用軌跡作成部、42:表示用データ作成部、
51:座標変換部、52:マップ作成部、53:位置判定部、54:物体画像重畳部、55:軌跡重畳部、56:顔認証部、57:顔重畳部、58:CG選択部、
212:ポインティングデバイス、210-1,210-2:モニタ部、211:ブザー、
304:警報確認ボタン、305:ブザー停止ボタン、
401:画像入力I/F、402:画像メモリ、403:ワークメモリ、404:CPU、405:画像出力I/F、408:LAN I/F、
801:地図画像、802:建物フロア図(鳥瞰)、803-1,803-2:物体画像、804-1,804-2:軌跡、1001-1:物体画像(CG)、1101:表示切替ボタン、1201:物体画像(顔)、
2000:画像処理装置、2001-1〜2001-n:カメラ画像、2002-1〜2002-n:マーカー処理部、2003-1〜2003-n:俯瞰座標変換部、2004-1〜2004-n:俯瞰画像作成部、2005:俯瞰画像合成部、2006:モニタ部、2202:直線検出部、2203:マーカー位置検出部、2204:マーカー傾き計算部、2205:カメラパラメータ算出部。

Claims (3)

  1. 複数のカメラにより撮影された映像を取得する映像取得手段と、該取得した映像から物体を検知する物体検知手段と、映像表示手段と、該映像表示手段に映像を表示する映像表示制御手段を有する監視システムにおいて、
    前記映像表示制御手段は、映像受信部とアラーム受信部とマップ表示部とブザー制御部と映像切替部と座標変換部とマップ作成部と位置判定部と物体重畳部と軌跡重畳部の機能を有し、
    前記映像表示制御手段は、平面の地図画像に前記カメラの配置画像と透視立体物画像を重畳した第1の出力と、前記アラーム受信部でアラームを受信した場合に侵入者または侵入物を表す画像と侵入軌跡と前記カメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする監視システム。
  2. 請求項1に記載の監視システムにおいて、
    前記映像表示制御手段は、さらにCG選択部を有し、
    前記映像表示制御手段は、平面の地図画像に前記カメラの配置画像と透視立体物画像を重畳した第1の出力と、前記アラーム受信部でアラームを受信した場合に侵入者または侵入物を表すCG画像と侵入軌跡と前記カメラの配置画像を平面の地図画像に重畳した第2の出力を有することを特徴とする監視システム。
  3. 請求項1に記載の監視システムにおいて、複数のマーカー処理部と俯瞰座標変換部と俯瞰画像作成部と、俯瞰画像合成部を有する画像処理装置を更に設け、
    前記カメラは同じマーカーを撮影し、
    前記マーカーは前後左右の識別可能な図柄を有し、
    前記マーカー処理部はカメラ画像からマーカーを検出し、
    前記俯瞰座標変換部は前記マーカーを基準にカメラ画像に所定回転を施し、
    カメラ画像から俯瞰画像を作成する俯瞰画像作成部は、前記マーカーの2辺以上の長さや傾きから、カメラの高さやカメラが設置されている地面との角度のカメラパラメータを算出し、算出したカメラパラメータを元に仮想的な俯瞰カメラで見たような真上からの画像に変換し、同じ大きさの物体であれば画面のどこに置いても同じ大きさになるように俯瞰画像を作成、もしくは複数のカメラ画像から斜め上の1点から見たような鳥瞰画像を作成し、
    前記俯瞰画像合成部は、複数の俯瞰画像もしくは鳥瞰画像を1つの画像に合成することを特徴とする監視システム。
JP2015552396A 2013-12-10 2014-12-01 監視システム Active JP6403687B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013254966 2013-12-10
JP2013254966 2013-12-10
PCT/JP2014/081729 WO2015087730A1 (ja) 2013-12-10 2014-12-01 監視システム

Publications (2)

Publication Number Publication Date
JPWO2015087730A1 true JPWO2015087730A1 (ja) 2017-03-16
JP6403687B2 JP6403687B2 (ja) 2018-10-10

Family

ID=53371039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552396A Active JP6403687B2 (ja) 2013-12-10 2014-12-01 監視システム

Country Status (2)

Country Link
JP (1) JP6403687B2 (ja)
WO (1) WO2015087730A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111147811A (zh) * 2019-11-20 2020-05-12 重庆特斯联智慧科技股份有限公司 一种自动人脸追踪的三维成像***、成像方法和成像设备
CN111670456A (zh) * 2018-02-08 2020-09-15 三菱电机株式会社 信息处理装置、追踪方法和追踪程序

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054311A (ja) * 2015-09-09 2017-03-16 株式会社デンソー 物体検出装置
JP6593922B2 (ja) * 2015-11-13 2019-10-23 株式会社日立国際電気 画像監視システム
JP2017134775A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6482580B2 (ja) * 2017-02-10 2019-03-13 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP6875255B2 (ja) * 2017-11-09 2021-05-19 株式会社日立ビルシステム 映像監視システム及び映像監視装置
US11341774B2 (en) * 2018-03-27 2022-05-24 Nec Corporation Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
JP2020017804A (ja) * 2018-07-23 2020-01-30 株式会社チャオ 画像伝送装置、画像伝送方法および画像伝送プログラム
CN111372036B (zh) * 2018-12-25 2021-05-25 中国科学院深圳先进技术研究院 一种视频监测方法、***
JP7178574B2 (ja) * 2020-03-12 2022-11-28 パナソニックIpマネジメント株式会社 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム
JP7030906B2 (ja) * 2020-07-17 2022-03-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN114237094A (zh) * 2021-11-23 2022-03-25 富盛科技股份有限公司 智能报警联动监控***、方法、电子设备和介质
JP7174389B1 (ja) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー 物***置推定表示装置、方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2008199549A (ja) * 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2011077982A (ja) * 2009-10-01 2011-04-14 Panasonic Corp 監視カメラシステム
JP2013210990A (ja) * 2012-02-29 2013-10-10 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078811A (ja) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> マーカ座標対応付け方法とカメラパラメータ取得方法とカメラパラメータ取得システムとキャリブレーションパターン
JP3820157B2 (ja) * 2002-01-21 2006-09-13 ペンタックス株式会社 写真測量システムと写真測量方法と写真測量プログラムが格納された記録媒体
US20060265664A1 (en) * 2005-05-17 2006-11-23 Hitachi, Ltd. System, method and computer program product for user interface operations for ad-hoc sensor node tracking
JP5299231B2 (ja) * 2009-11-17 2013-09-25 富士通株式会社 キャリブレーション装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2008199549A (ja) * 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2011077982A (ja) * 2009-10-01 2011-04-14 Panasonic Corp 監視カメラシステム
JP2013210990A (ja) * 2012-02-29 2013-10-10 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111670456A (zh) * 2018-02-08 2020-09-15 三菱电机株式会社 信息处理装置、追踪方法和追踪程序
CN111670456B (zh) * 2018-02-08 2023-09-15 三菱电机株式会社 信息处理装置、追踪方法和记录介质
CN111147811A (zh) * 2019-11-20 2020-05-12 重庆特斯联智慧科技股份有限公司 一种自动人脸追踪的三维成像***、成像方法和成像设备
CN111147811B (zh) * 2019-11-20 2021-04-13 重庆特斯联智慧科技股份有限公司 一种自动人脸追踪的三维成像***、成像方法和成像设备

Also Published As

Publication number Publication date
JP6403687B2 (ja) 2018-10-10
WO2015087730A1 (ja) 2015-06-18

Similar Documents

Publication Publication Date Title
JP6403687B2 (ja) 監視システム
US20230300466A1 (en) Video surveillance system and video surveillance method
US10614311B2 (en) Automatic extraction of secondary video streams
US6774905B2 (en) Image data processing
KR101937272B1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
CN103283225B (zh) 多分辨率图像显示
JP2017098879A (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
KR101778744B1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
KR101985711B1 (ko) 증강현실 cctv 시스템 및 그 제어방법
JP2023126352A (ja) プログラム、映像監視方法及び映像監視システム
KR101780929B1 (ko) 움직이는 물체를 추적하는 영상감시 시스템
WO2021248564A1 (zh) 一种全景大数据应用监测管控***
KR101645451B1 (ko) 스테레오 카메라를 이용한 감지영역 내의 이동객체 감지시스템
KR101937582B1 (ko) 인도 보안 안전 시스템
KR102152319B1 (ko) 3d 공간상에서 객체의 위치와 크기를 계산하는 방법 및 이를 이용한 영상관제시스템
KR101674033B1 (ko) 삼차원 지도 기반 폐쇄회로 텔레비전 영상 매핑 시스템
US11108974B2 (en) Supplementing video material
JP2003232867A (ja) 物体検出方法及び装置
KR101749679B1 (ko) 촬영 영상을 이용한 추적대상의 삼차원 형상 생성시스템 및 그 방법
WO2022022809A1 (en) Masking device
JP2005140754A (ja) 人物検知方法、監視システム、およびコンピュータプログラム
KR102098225B1 (ko) 전방위 영상 표시 장치 및 그 표시 방법
KR101728994B1 (ko) 증강현실 폐쇄회로 텔레비전 감시 시스템
EP2706483A1 (en) Privacy masking in monitoring system.
US20230342888A1 (en) Ptz masking control

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180911

R150 Certificate of patent or registration of utility model

Ref document number: 6403687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250