JP2005286685A - 画像生成装置、システムまたは画像合成方法。 - Google Patents

画像生成装置、システムまたは画像合成方法。 Download PDF

Info

Publication number
JP2005286685A
JP2005286685A JP2004097560A JP2004097560A JP2005286685A JP 2005286685 A JP2005286685 A JP 2005286685A JP 2004097560 A JP2004097560 A JP 2004097560A JP 2004097560 A JP2004097560 A JP 2004097560A JP 2005286685 A JP2005286685 A JP 2005286685A
Authority
JP
Japan
Prior art keywords
video
image
camera
map information
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004097560A
Other languages
English (en)
Other versions
JP4424031B2 (ja
Inventor
Masami Yamazaki
眞見 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004097560A priority Critical patent/JP4424031B2/ja
Priority to US11/086,677 priority patent/US7412112B2/en
Publication of JP2005286685A publication Critical patent/JP2005286685A/ja
Application granted granted Critical
Publication of JP4424031B2 publication Critical patent/JP4424031B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】
複数カメラ映像を基に監視範囲内発生事象を把握する監視作業では、監視範囲全体を示す地図内情報を、監視カメラと同じ視点から眺めた場合の見え方にイメージし直し、該イメージと監視映像を比較し、発生事象を認識する必要があり、高い集中力を要求され、監視者は判断ミスを犯し易くなるという問題があった。
【解決手段】
本発明の監視システムでは、監視カメラ撮影映像に対して、該映像内の特定領域の見え方を地図の対応領域と同一の幾何形状に変形する映像変形手段212と、該変形映像の特定領域を抽出し地図の対応領域に合成表示する映像合成表示手段213を備えることを特徴とする。
【選択図】 図2

Description

この発明は、複数の地点に配置されたカメラ装置が撮影する映像を合成し、合成画像を生成、または表示する装置、システム又は方法に関する。特に、監視カメラシステム及び監視カメラ映像表示方法に関するものである。
監視カメラを用いた監視システムによる監視作業は、一般に、監視範囲の一部又は全体を撮影可能な監視カメラを少なくとも一台以上用いて撮影し、撮影した映像を監視者のいる場所に設置したCRTなどの映像表示装置上に、複数台の監視カメラ撮影映像を画面を分割して同時に表示するか、表示すべき監視カメラ撮影映像を選択して、切り替えながら順次表示するかして、監視カメラ映像を通して、監視範囲で発生した異常事態などの事象の発生を認識し判断するという作業である。このように、監視カメラ映像の観察を通した監視作業では、監視範囲をカメラがどのような位置からどのような視野角で、どの範囲撮影しているかという撮影条件と、撮影された映像情報そのものと、監視カメラ設置場所に関する既知の情報の、三種類の情報を用いて、監視者たる人間が総合的に判断し、監視範囲で発生している事象を理解し把握する。
このため、従来、監視カメラの撮影条件と、撮影映像と、監視場所に関する既知の情報の3種類の情報を、映像表示装置上に、画面を分割してそれぞれ表示するか、監視場所に関する情報を地図として表現し、地図上に撮影条件を記号で図示し、別ウィンドウに選択されたカメラの映像を表示する方法を用いる監視システムがあった(例えば、特許文献1、2、3、4参照。)
また、監視範囲に障害物が少ない空港河川、港湾等を監視するシステムで、広い監視領域をある一点から画角の異なる複数のカメラによる画像を一画像に構成し、監視領域全体を真上から見た地図に、合成する技術がある(特許文献5参照)。
特開平6−284330号公報(第4−5頁 、第7図) 特開2003−134503号公報(第3頁 、第2図) 特開2002−77889号公報(第3頁 、第7図) 特開2002−344929号公報(第4頁 、第6図) 特開2001-319218号公報(第16頁、第16図)
上記従来技術では、カメラ撮影映像を撮影したままの形状で表示するために、たとえ、監視範囲を示す地図上に、監視カメラの撮影方向などの撮影条件を記号で示しても、撮影映像と、地図との間の幾何学的関係が整合されていないために、監視者は、一旦、地図に示された監視範囲を、監視カメラと同じ視点から眺めた場合の監視範囲の見え方にイメージし直して、そのイメージと監視撮影映像とを比較して、監視範囲内で生じている事象を認識するという、一連の認識プロセスを必要とするため、監視作業に高い集中力を要求されたり、判断ミスを犯し易くなるなどの問題があった。
また、監視範囲に建物などの障害物が多い場合、一画像に構成する際に行う変換処理によって監視カメラ撮影映像と地図情報との幾何学的関係の不整合が生じる場合がある。
また、複数のカメラにより、異なる位置から撮影された映像の間の幾何学的関係の不整合は、上記特許文献では、解決されていない。
本発明は、複数の監視カメラの撮影映像を地図内に判り易く合成表示する方法と、該表示方法を可能とする監視システムを提供することを目的とする。
上記課題のうち少なくとも一つを解決するために、本発明の監視システムでは、監視映像撮影手段と、該撮影手段により撮影した映像を監視センタに伝送する伝送手段と、該伝送手段により伝送された映像を受信し蓄積する映像受信蓄積手段と、該映像内特定領域の見え方を地図の対応領域と同一の幾何形状に変形する映像変形手段と、該変形映像の特定領域を指定するマスク情報に従って抽出する部分映像抽出手段と、該変形映像の部分映像抽出映像を、地図の対応領域に合成表示する映像合成表示手段とを備える。
撮影方向や撮影位置や撮影視野が異なる撮影手段により撮影されたそれぞれの撮影映像を、映像内の特定領域の見え方が、地図内の対応領域と同一の幾何形状と一致するように、映像変形手段でそれぞれの映像を変形し、部分映像抽出手段で該変形映像の特定領域を抽出し、映像合成表示手段により地図内の対応領域に該抽出部分映像を合成表示するため、撮影手段の個々の撮影条件を考慮しながらの映像読解が不要となると同時に、それぞれの映像の撮影範囲の相互関係を地図内で容易に把握可能となる。
本発明によれば、複数の映像の相互関係を地図内で容易に把握可能となる。
以下、実施例を用いて説明する。
図1に、監視カメラ映像をネットワークを経由して収集し、地図データに合成表示する監視システム構成図を示す。複数のネットワークカメラ101,102,103は、ネットワーク104を経由して映像収集・閲覧サーバ120へ映像を送信する。ネットワークカメラ101は、カメラ110により、映像を撮影し、画像エンコーダ111により、画像データを圧縮符号化し、ネットワークアダプタ112を経由して、撮影映像データをネットワーク上へ送りだす。映像収集・閲覧サーバ120は、監視カメラの蓄積映像データ132や、監視範囲の地図データ131や、カメラ撮影映像と地図データを合成するために必要なカメラ別変換パラメタ130や、地図データに合成するカメラ撮影映像の範囲を指定するカメラ別のマスク情報133、本発明の映像処理プログラム134を格納するための外部記憶装置124と、地図情報や監視映像を表示するためのディスプレイ121と、表示の仕方などを指示するためのキーボード123やマウス122を備える。なお、外部記憶装置124に格納されているデータは、映像収集・閲覧サーバー120の内部のメモリに保持されていてもよい。本システムでは、撮影映像データを収集し、収集された複数の映像を地図データに合成し、合成により新たな画像を生成し、表示する。
映像収集・閲覧サーバ120の内部構成を、図19を用いて説明する。映像収集・閲覧サーバ120は、CPU1901と、メモリ1902と、ネットワークに接続しデータを授受するためのネットワークインターフェース回路1903と、外部記憶ディスク装置124とデータを授受するためのディスクインターフェース回路1904と、キーボード123を接続するためのキーボードインターフェース回路1905と、マウス122を接続するためのマウスインターフェース回路1906と、画像表示装置121を接続し画像表示するためのビデオインターフェース回路1907が、バス1910を介して互いに接続されている。
次に、本監視システムでの監視撮影映像に対する映像収集・閲覧サーバ102における映像処理の流れを、図2に示す監視映像処理のデータフロー図を用いて説明する。映像収集・閲覧サーバ102にネットワーク経由で送信されて来たデータを、カメラ1撮影データ201と、カメラ2撮影データ202と、カメラN撮影データ203とする。これらのカメラ撮影データは、受信蓄積処理211により、外部記憶装置124に蓄積保存されるか、あるいは、地図との合成表示のための射影変換処理212の入力データとしてリアルタイムに利用される。射影変換処理212は、表示装置121上で地図と合成表示する監視カメラ映像を、該監視カメラに対応する変換パラメタ206に基づいて、射影変換の幾何変形処理を行う。射影変換処理212の出力映像データは、該監視映像撮影地域の地図データ205と、該地図データ上に幾何変形された監視カメラ映像を合成するために必要なマスク情報207を用いて、合成処理213によって地図画像上に監視カメラ映像を埋め込み合成する。該地図とカメラ画像の合成映像は、表示処理214により、表示装置121上に表示される。図2で示す映像処理を記述した本発明の映像処理プログラム134は、映像収集・閲覧サーバ120に接続した外部記憶装置124に格納し、実行時に映像収集・閲覧サーバ120へロードされ制御部で実行される。すなわち、映像収集・閲覧サーバ120は、画像を生成する装置である。
続いて、監視カメラで監視する監視対象物と監視カメラ設置場所に関して、図3では鳥瞰図を用いて、図4では地図を用いて説明する。図3には、都市の一街区にビルが建ち並ぶ様子を、鳥瞰図により模式的に示している。図中の黒い丸印301〜307は、ビル周辺の路上を撮影するためにビルの屋上に設置する監視カメラの設置位置を示している。図4には、図3に示した都市の一街区の地図による表現を示す。
図3で示した監視カメラを設置位置を、図4中に、図3と同一番号を振った黒い丸印で示す。図3あるいは図4に示したような街区の監視カメラによる監視映像の例を、図5と図7に示す。図5では、カメラ設置位置303に設置した監視カメラにより撮影したビル周辺の路上の撮影映像を示す。図7では、カメラ設置位置304に設置した監視カメラにより撮影したビル周辺の路上の撮影映像を示す。これらの撮影映像を、図3や図4に示す街区の情報と照らし合せて、どのビル周辺の、どの道路の、どの範囲を撮影したものかを見出し、理解するのは、それぞれのカメラで撮影方向も、撮影高さも、撮影視野角も異るため、容易ではない。このように、複数の監視カメラ映像から、その監視カメラが撮影している監視範囲の状況を理解するには、事前にその監視範囲の地図情報や、各監視映像の撮影位置や、撮影方向の違いなどをよく理解しておき、それぞれの監視映像を地図上のどの範囲かを頭の中で想像しながら解釈するという、集中力を要する読解作業が要求される。そのため、監視カメラを用いての監視業務を遂行するためには、それを用いて監視活動を行う監視員に、監視映像の読解という集中力を要する作業を強いる。そのため、集中力の低下などにより、その読解を正確に行えないとか、ただ漫然と監視映像をながめているだけとか、監視作業の質の低下など生じやすい。
図6に、図5の監視映像に対して、ある射影変換を施した映像601を、図4の地図上の、道路部分が一致するように配置した様子を示す。道路部分の映像を地図の道路部分と一致させる幾何変換は、道路の地表平面に対する監視カメラの設置位置と方向、および、監視カメラに装着されたレンズ特性に応じて決る射影変換と、地図作図に用いた幾何変換から一意に決る。一般に、図4に示したような、地球表面の球面形状の影響を無視できるほどに狭い範囲の地図においては、地図化するために用いる幾何変換は平行投影とみなせ、一種の射影変換となる。このため、カメラ監視映像と地図の、地表平面の道路のそれぞれの形状は、異なる射影変換で、実際の道路の形状をそれぞれ変換した形状となっている。
ある平面上の幾何的関係を、二つの異なる射影変換で変換し求めた二つの幾何的関係の間には、一方の幾何的関係を他方の幾何的関係に変換することが可能な射影変換が存在する。この性質により、図6に示したように、道路のような平面上の幾何的関係に関して、カメラで撮影した道路の映像を、地図として描いた道路に一致させることのできる映像に変換することのできる射影変換が存在することになる。
同様に、図8に、図7の監視映像に対して、ある射影変換を施した映像801を図4の地図上に、道路部分の幾何的関係が一致するように配置した様子を示す。図6や図8に示したように、道路部分の撮影映像が地図上の道路部分に一致するように射影変換した映像は、道路の存在する同一平面上の幾何的関係のみが、地図と一致する。従って、道路とは同一平面に存在しないビルの側面やビルの屋上などの映像部分は、該射影変換では、地図上に描画された対応部分の幾何的関係とは一致しない。
前述したような映像を変換する二次元射影変換の場合、一般には、変換元と変換先の平面上の四点の関係が決まると一意に決る。そのため、道路部分の撮影映像が地図上の道路部分に一致するように変換する射影変換は、監視映像の地表平面上の道路部分から、どの三点の組も直線上に並ぶことのない性質を持つ、任意の四点を選択し、その四点に対応する地図上の四点を関係付けることで、一意に決定することができる。
このような射影変換を決定する方法を、図12を用いて説明する。図12には、x座標軸1211とy座標軸1212を持つ映像座標系Lが定義された監視カメラに撮影された映像1201と、X座標軸1221とY座標軸1222を持つ映像座標系Mが定義された監視カメラに撮影された地図1202と、u座標軸1231とv座標軸1232を持つ映像座標系Kが定義された二次元平面1203を示す。
映像1201内の四点a,b,c,dを、地図1202内の四点A,B,C,Dに対応付ける射影変換Hを表わす変換式は、非常に複雑な変換式となるので、数1に示すような、映像1201の座標系Lから二次元平面1203の座標系Kへの射影変換Gと、数2に示すような、二次元平面1203の座標系Kから地図1202の座標系Mへの射影変換Fの、二つの射影変換をそれぞれ求めて、数3に示すような合成写像Hを求める。この合成写像Hは射影変換となり、数4に示すように、映像1201の座標系Lから地図1202の座標系Mへの射影変換Hとなる。
Figure 2005286685
Figure 2005286685
Figure 2005286685
Figure 2005286685
射影変換Fは、数5に示すように、二次元平面1203内で、uv座標値(0,0)、(0,1)、(1,0)、(1,1)をそれぞれ持つ四点1233、1234、1235、1236を、地図1202内の四点A,B,C,Dへ対応付ける射影変換と定義する。ここで、地図1202内の四点A,B,C,Dは、座標系Mにおいて、XY座標値(0,0)、(X2,Y2)、(X3,Y3)、(X4,Y4)をそれぞれ持つとする。
Figure 2005286685
さらに、射影変換Gは、数9に示すように、映像1201内の四点a,b,c,dを、二次元平面1203内で、uv座標値(0,0)、(0,1)、(1,0)、(1,1)をそれぞれ持つ四点1233、1234、1235、1236へ対応付ける射影変換と定義する。ここで、映像1201内の四点a,b,c,dは、座標系Lにおいて、xy座標値(0,0)、(x2,y2)、(x3,y3)、(x4,y4)をそれぞれ持つとする。
Figure 2005286685
このように定義した、射影変換Fの座標系Kの座標値(u,v)から座標系Mの座標値(X,Y)への具体的な変換式を、数8に示す。ここで、係数P1、Q1、P2、Q2、P0、Q0、R0は、点A、B、C、Dの座標値の式で定義される数6に示す補助定数 T1、T2、T3、T4を用いて、数7に示すように定義する。
Figure 2005286685
Figure 2005286685
Figure 2005286685
同様に、射影変換Gの座標系Lの座標値(x,y)から座標系Kの座標値(u,v)への具体的な変換式を、数12に示す。ここで、係数p1、q1、p2、q2、p0、q0、r0は、点a、b、c、dの座標値の式で定義される数10に示す補助定数 t1、t2、t3、t4,d1,d2を用いて、数11に示すように定義する。
Figure 2005286685
Figure 2005286685
Figure 2005286685
すると、映像1201内の四点a,b,c,dを、地図1202内の四点A,B,C,Dに対応付ける、座標系Lの座標値(x,y)から座標系Mの座標値(X,Y)へ対応付ける射影変換Hは、まず、数12により、座標値(x,y)から座標値(u,v)を求め、さらに、数8により、該座標値(u,v)から座標値(X,Y)を求めることで計算できる。このように二つの射影変換Gと射影変換Fを合成しが変換は、射影変換となり、射影変換Hは、数13の九つの定数係数a0,a1,a2,b0,b1,b2,c0,c1,c2で表現できる形式となる。
Figure 2005286685
数13に含まれる九つの定数係数が、図1のカメラ別変換パラメタ130の具体表現となる。図20に、監視カメラ別に、数13に含まれる九つの定数係数を表の形式として保存した変換パラメタテーブルを示す。テーブル2001、テーブル2002、テーブル2003は、それぞれ、監視カメラ1、監視カメラ2、監視カメラNに対する変換パラメタのデータ形式である。
このように定義される、監視カメラ映像の道路部分を、地図上の道路表記部分へ対応付ける座標間の計算式が求まると、図1の映像収集・閲覧サーバ120で実行可能な、幾何変形処理と呼ばれる画像の形状を変形する画像処理プログラムとして、図2に示した射影変換処理212を、容易に実現することができる。
続いて、図2の合成処理213を説明する。該合成処理は、射影変換処理212により幾何変形された監視カメラ映像で、地図との幾何形状が一致する部分映像の道路部分だけを図4の地図上に合成することを目的とする。この目的のために、まず、図9や図10に示すように、監視カメラ303や監視カメラ304の映像で撮影されている道路部分に相当する領域を示す映像マスク901や1001を、全ての監視カメラそれぞれに用意し、図2のマスク情報207とする。監視カメラの設置位置と撮影方向と撮影画角が一定であれば、映像マスク901や1001は一定である。そのため、撮影方向や撮影画角を変化させないのであれば、監視カメラの設置時に一度設定し用意すればよい。
図6と図8に示す射影変換画像601や801を、それぞれ、図9と図10に示す映像マスク901や1001で指定された部分の画像だけを取り出し、図4の地図上に合成表示すると、図11に示す映像部分1101となる。
続いて、図2の表示処理214を、図13を用いて説明する。図13は、図1の表示装置121の画面表示例である。画面1300には、前記の、監視区域地図上に各監視カメラ映像をそれぞれ適当な射影変換で幾何変形し、道路地表面とは同一平面に存在しない部分を除去した映像が、地図上の道路部分に正しい幾何的整合性を持って合成表示される、地図と監視映像合成表示ウィンドウ1310と、各監視カメラの映像をそのまま映し出すための監視カメラ映像無変換表示用ウィンドウ1320と、現在の時刻を表示する現在時刻表示ウィンドウ1307と、表示している監視カメラ映像の撮影時刻を表示する映像撮影時刻表示ウィンドウ1308を、配置する。
映像撮影時刻表示ウィンドウ1308内には、地図と監視映像合成表示ウィンドウ1310と、監視カメラ映像無変換表示用ウィンドウ1320内の監視カメラ映像として、表示時刻現在のリアルタイムの映像だけではなく、図1の外部記憶装置124内に蓄積しておいた蓄積映像132の特定時刻撮影映像から取り出すための、指定撮影時刻をセットするための、映像撮影時刻変更アップダウンボタン1309を持つ。
監視カメラ映像無変換表示用ウィンドウ1320内には、固有の監視カメラ番号を振られた監視カメラの、映像撮影時刻表示ウィンドウ1308に表示されている時刻に撮影された映像が、個別カメラ撮影映像表示ウィンドウ1301、1302、1303、1304、1305に、上からカメラ番号の昇順に並べられて配置される。ウィンドウ1320の内側に表示しきれない監視カメラの撮影映像は、スクロールバー1306を操作することにより、最上段のカメラ撮影映像表示ウィンドウ1301に表示される監視カメラ番号を増減し、それに従い、その他のカメラ撮影映像表示ウィンドウ1302〜1305のカメラ番号も変更され、ウィンドウ1320内に、所望のカメラ番号を持つ監視カメラの撮影映像を表示する。
このように、各監視カメラ映像のそれぞれに適する射影変換212を施された映像から、道路地表面と同一平面に存在しない部分が除去された映像を、地図上に合成表示できるために、各監視カメラ映像の相互関係が地図上に統一的に整合され、地図上で、監視領域内の道路状況を映像として監視可能となる。
本実施例によれば、監視員は、システムの各カメラの位置や撮影方向などという、監視カメラ個別特性に応じて、監視カメラ映像を読解する必要がなくなり、監視作業の負荷が低減され、作業ミスの誘発要因も低減する効果がある。
実施例1で説明した監視システムにおいて、図3に示した市街地に設置された監視カメラ303の撮影映像と監視カメラ304の撮影映像との撮影時刻が同時刻に撮影されていない場合には、監視領域全体において、ある瞬間の状態を表示していることにならない。そのため、図11に示すように二つのカメラの道路状態の映像を合成した映像において、例えば、自動車のように動いている物体の映像部分は、マスク情報901とマスク情報1001の重複部分において、同一の自動車が異なる路面位置に存在していたと撮影され、二重にずれて合成表示されるなど、合成映像の品質に問題が発生する場合がある。
そのため、第二の実施例においては、図1に示す監視システムにおける監視カメラ101,102,103が相互に動画撮影の撮影フレームタイミングの同期が取れるカメラで構成される事を特徴とし、その他は、実施例1と同様のシステム構成と実施例1と同様の監視映像表示方法を用いた監視システムとする。複数の監視カメラが相互に動画撮影同期を取ることが可能な監視カメラの実施の例を、以下において、図面を参照して説明する。
図14は、本発明の実施の形態を示すネットワーク監視カメラの機能ブロックの構成図である。本発明のネットワーク監視カメラは、組み込みコンピュータブロック 1400と、画像データ生成ブロック 1410 と、位相を制御可能な同期信号生成ブロック1420 から構成される。
組み込みコンピュータブロック 1400は、CPU 1402 と RAM 1403 とディスク制御インタフェース1404 とネットワークインタフェース1406が、内部バス 101 を介して互いに接続され、ディスク制御インタフェース1404を介して接続されたハードディスク1405に格納された任意のプログラムコードをRAM1403へロードして、該プログラムコードをCPU1402で実行可能な汎用のコンピュータと同等の機能を有する。さらに、ネットワーク接続端子1407 を介して接続する外部ネットワークと通信するために必要なプログラムや、内部バス1401を介して接続されている画像データ生成ブロック1410や 位相を制御可能な同期信号生成ブロック1420とのデータ交換が可能なプログラムモジュールを含むオペレーティングシステム(例えば Linux など)をハードディスク1419に格納し、起動とともにロードし動作させ、該オペレーティングシステムの下で、以下で説明する映像撮影を同期化するプログラムを動作させる。
画像データ生成ブロック1410は、垂直と水平の各同期信号を供給することで、撮影タイミングを制御可能なカメラモジュール1411と、圧縮あるいは非圧縮の各種の業界標準画像データ形式(例えば、JPEG)に変換する画像エンコーダ1412と、同期信号生成ブロック1420のカウンタ情報を基に、フレーム番号を算出するフレーム番号生成器1413から構成される。カメラモジュール1411から出力されるディジタル映像信号と、フレーム番号生成器1413から出力されるフレーム番号情報は、画像エンコーダ1412に取り込まれ、適当な画像データ形式のディジタルデータに変換され、該データは内部バス1401を経由して、組込みコンピュータブロック1400に読み込まれ、ネットワークインタフェース1406を経由して外部ネットワークへ送信する。
位相を制御可能な同期信号生成ブロック1420は、映像基準クロック生成器1421と、該クロック生成器の発生するパルス信号毎に一ずつ積算する32ビットの積算カウンタ1422と、組み込みコンピュータブロック1400から32ビット整数値を設定可能なオフセットレジスタ1424と、積算カウンタ1422の計数値と、オフセットレジスタ1424の設定値とを加算する加算器1423と、映像基準クロック生成器1421のクロック周期とカメラモジュール1411へ供給する水平同期信号の周期の比率を設定する分周比率32ビット定数レジスタ1425と、加算器 1423の出力数値を、分周比率定数レジスタ1425に設定されている数値で除算しその剰余を32ビットで出力する剰余器1426と、剰余器1426の出力値を基準クロックの一周期分の時間保持するレジスタ1427と、剰余器1426の出力値をAに、レジスタ1427の出力値をBに、それぞれ入力し、AがB未満のとき1を、それ以外のとき0 を1ビットで出力する比較器1428と、比較器1428の出力パルスから、水平同期信号パルス波形を生成する単安定マルチバイブレータ1429と、映像基準クロック生成器1421のクロック周期とカメラモジュール1411へ供給する垂直同期信号の周期の比率を設定する分周比率32ビット定数レジスタ1430と、加算器1423の出力数値を、分周比率定数レジスタ1430に設定されている数値で除算しその剰余を32ビットで出力する剰余器1431と、剰余器1431の出力値を基準クロックの一周期分の時間保持するレジスタ1432と、剰余器1431の出力値をAに、レジスタ1432の出力値をBに、それぞれ入力し、AがB未満のとき1を、それ以外のとき0を1ビットで出力する比較器1433と、比較器1433の出力パルスから、垂直同期信号パルス波形を生成する単安定マルチバイブレータ1434とを有する。
第2の実施例においては、撮影同期機能付ネットワーク監視カメラの使用形態は、第1の実施例の図1の監視システム構成図におけるネットワーク監視カメラ101,102,103を、図14に示した内部構成を持つ撮影同期機能付ネットワーク監視カメラに置き換えて使用する。
撮影同期機能付ネットワーク監視カメラの動作には、二種類の動作モードを設定する。一つは、同期従属モード、もう一つは同期基準モードと呼ぶ。図1のシステム構成において、ネットワーク104に接続された全てのネットワークカメラの内の一台、例えば監視カメラ101だけが同期基準モードで動作し、残りの全ての監視カメラ102, 103は、同期従属モードで動作させる。
本発明のネットワーク監視カメラの動作を、同期基準モードの動作と同期従属モードの動作について、図15と図16のフローチャートを用いてそれぞれ説明する。
同期基準モードでは、組み込みコンピュータブロック1400において、図15のフローチャートに従ったプログラムを実行させる。まず、手順1500に於て、位相を制御可能な同期信号生成ブロック1420の積算カウンタ1422とオフセットレジスタ1424を、零にクリアする。この直後より、積算カウンタ1422は、映像基準クロック1421の発生するパルス間隔でカウンタ値を一ずつ増やしていく。
手順1501で、組み込みコンピュータブロック1400が接続しているネットワークからの受信内容を読み取る。続く手順1502で、読み取った受信内容が同期従属モードで動作しているネットワークカメラからの送信要求か判別し、送信要求でない場合、手順1501へ戻る。送信要求の場合は、手順1503で、位相を制御可能な同期信号生成ブロック1420の加算機1423の出力値を読み出す。同期基準モードでは、オフセットレジスタ1424の値は、リセット後更新されず、零であるので、加算器1423の出力値は、積算カウンタ1422のカウント値と一致している。読み出した積算カウンタ1422のカウント値を、速やかに手順1504で、送信要求をして来た同期従属モードで動作しているネットワークカメラへ送信する。続いて、再び手順1501へ戻り、順次、送信要求に応えて積算カウンタ1422のカウント値を返信し続ける。
同期従属モードでは、組み込みコンピュータブロック1400において、図16のフローチャートに従ったプログラムを実行させる。まず、手順1600に於て、位相を制御可能な同期信号生成ブロック1420の積算カウンタ1422とオフセットレジスタ1424を、零にクリアする。この直後より、積算カウンタ1422は、映像基準クロック1421の発生するパルス間隔でカウンタ値を一ずつ増やしていく。手順1601で、手順1603〜1609までの繰り返しループ回数を制御する変数 i に零を代入する。手順 402 の条件分岐では、変数 i が100未満であれば、続く手順403〜409の部分の実行へ制御を移し、変数 i が100以上であれば、手順1610へ分岐する。手順1603〜1609の一連の繰り返しループ計算ブロックの最初の手順1603では、加算機1423の出力値を読み出し Ai とする。
手順1604で、同期基準モードで動作しているカメラに対して、該カメラの加算機1423の出力値を送信するように要求する要求パケットをネットワークを通して送信する。手順1605で、手順1604で要求した情報の受信を待ち、受信があれば次の手順1606へ進む。手順1606で、受信した情報である同期基準モードカメラの加算器1423の出力値を Bi とする。続く手順1607では、自カメラの加算器1423の出力値を読み出し Ci とする。手順1608で、(Bi-(Ai+Ci)/2)を計算し、その結果をDi とする。手順1609で、繰り返し回数制御変数の iの値を1増し、手順1602へ戻る。手順1603〜1609の一連の手順を100回繰り返した後、手順1610へ進む。手順1610では、手順1608で計算した100個の Di からその平均値を求め、D とする。手順1611で、オフセットレジスタ1424の現在設定値に数値 D を加算した値を設定する。これにより、加算器123の出力値が、同期基準モードカメラの加算器1423の出力値と、同時刻では値が一致するように修正されたことになる。
手順1612で、以上の修正手順を一定時間あけて再び実行するために、一定時間待ち、その後手順1601へ制御を戻す。待ち時間の一定時間は、映像同期基準クロック1421の個体差によるカメラ間でのクロック刻み間隔の差や、各映像同期基準クロック1421のクロック刻み間隔ゆらぎ量から決定される。さらに、ネットワークトラフィックの無用な増大を抑えるためには、あまり頻繁に同期のための通信を行わないほうがよい。これらの条件を勘案して、数十秒から数十分の間で手順1612の待ち時間を設定する。
図17を用いて、図16のフローチャットで説明した同期従属モードカメラの動作が、自カメラの加算器1423の出力値を、同期基準モードカメラの加算器1423の出力値に、同期される原理を説明する。図17では、時刻を表わす座標軸1701に沿って、同期従属モードで動作するカメラの加算器1423の出力値の変化を表わす軸1702 と、同期基準モードで動作するカメラの加算器1423の出力値の変化を表わす軸1703を並べて記した。時刻軸1701上での時刻 t1 で、図16のフローチャートの手順1604により、同期従属モードカメラから同期基準モードカメラへ、同期基準モードカメラの加算器1423の出力値の送信要求を行ったとする。この時刻t1 での、同期従属モードカメラの加算器1423の出力値を A とする。該送信要求が、時刻 t2 に同期基準モードカメラに到着すると、同期基準モードカメラは、加算器1423の出力値 B を、速やかに同期基準モードカメラへ返信する。該返信が、時刻t3に、同期従属モードカメラへ到着し、その時点の同期従属モードカメラの加算器1423の出力値が Cとする。このとき、同期従属モードカメラから同期基準モードカメラへの送信要求通信1704にかかった時間 (t2-t1) と、同期基準モードカメラから同期従属モードカメラへの返信1705にかかった時間(t3-t2) は、等しいと仮定できる。すると、時刻 t2 での、同期従属モードカメラの加算器1423の出力値は、 (A+C)/2 と推定される。従って、値 (B-(A+C)/2) は、同時刻における、同期従属モードカメラの加算器1423の出力値と同期基準モードカメラの加算器1423の出力値との差と見倣される。ここで、(t2-t1)と(t3-t2)が等しいとい仮定は、通信環境の影響などにより、必ずしも成立しない。そのため、通信環境の影響などによる(t2-t1)と(t3-t2)の値の違いは、確率的要因により生じているという仮定をさらに立て、同時刻における二つのカメラ間での 加算器1423の出力値の差(B-(A+C)/2)を100回算出しその平均値をもって、加算器1423の出力値の差の良い推定値とした。このように推定した加算器1423の出力値の差を、同期従属モードカメラのオフセットレジスタ1424の現在設定値に加算することで、加算器1423の出力値は、(B-(A+C)/2)だけ増え、同期基準モードカメラの同時刻における加算器1423の出力値と一致することになる。以上のように、ネットワークに接続されている同期従属モードで動作する全てのカメラの加算器1423の出力値は、同期基準モードで動作する唯一のカメラの加算器1423の出力値に一致して動作する。
全てのカメラの映像基準クロック1421の周波数は同一に設定しておき、全てのカメラの加算器1423の出力値は、同一の時間間隔で一ずつ値が増加していく。この出力値の変化する時間間隔を TC として、時間 TC に対するカメラモジュール1411へ入力する水平同期信号の同期パルス間隔 TH の整数比をM とする。分周比率定数レジスタ1425には事前にこの値 M を設定しておく。すると、剰余器1426の出力値は、図18に示すように、時間間隔 TH で、増減を繰り返す。この特性を利用すると、基準クロックの一周期分の時間 TC 前の剰余器1426の出力値を保持しているレジスタ1427の出力値と、 剰余器1426の出力値とを比較器1428で比較することで、剰余値が減少したタイミングを検出し、周期 TH のパルスを得る。この周期 TH のパルスを、単安定マルチバイブレータ1429を用いて、水平同期信号の波形に整形し、カメラモジュール1411の水平同期信号として供給する。
同様に、映像基準クロック1421の一周期の時間 TC に対するカメラモジュール1411へ入力する垂直同期信号の同期パルス間隔 TV の整数比をN とし、分周比率定数レジスタ1430には事前にこの値 N を設定する。すると、水平同期信号を生成した場合と同様に、比較器1433の出力として、周期 TV のパルスを得る。この周期 TV のパルスを、単安定マルチバイブレータ1434を用いて、垂直同期信号の波形に整形し、カメラモジュール1411の垂直同期信号として供給する。
前述したように、ネットワークに接続されている同期従属モードで動作する全てのカメラの加算器1423の出力値が同期基準モードで動作する唯一のカメラの加算器1423の出力値に一致して動作していることより、全てのカメラにおいて上述のように生成される水平同期信号と垂直同期信号は、互いに位相の一致した同期信号となる。従って、カメラモジュール1411により撮影される映像の撮影タイミングは、カメラ間で同期の取れたものとなる。さらに、フレーム番号生成器1413 は、カメラ間で同一の値を持つ加算器1423の出力値に基づいてフレーム番号を算出するため、フレーム番号もカメラ間で同期のとれた同一の値を生成できる。フレーム番号算出方法は、例えば、加算器1423の出力値を A として、同期基準クロック1421のクロック周波数を f として、垂直同期信号の周期を TV とするとき、フレーム番号 FN は、 (A/f/TV) の値を越えない最大の整数値と計算する。カメラモジュール1411で同期撮影された映像データは、画像エンコーダ1412で特定の画像データ形式に変換するとともに、各画像データにはカメラ間で同期の取れたフレーム番号を埋め込む。このようにして生成した、撮影タイミングが同期した映像データは、ネットワーク104を経由して,映像収集・閲覧サーバ120へ伝送される。
このように、撮影同期可能な監視カメラを用いて、他の部分は第1の実施例と同様の監視システムでは、図11に示すような、地図画像中に埋め込んだ複数の監視カメラの道路状態の映像1101のうち、複数のカメラで重複して撮影している部分の合成画像部分で、同一の自動車が二重にずれて合成表示されるなどという画像劣化が発生しなくなる。
本実施例によれば、第1の実施例よりも高品質に、地図画像中に監視カメラ映像を合成表示することが可能となり、第1の実施例と同様の効果に加えて、不正確な合成映像の表示による監視員の状況判断ミスなどの発生を、未然に防ぐことが可能となる効果がある。
以上説明した実施例によれば、撮影方向や撮影位置や撮影視野に違いのある複数の監視カメラの撮影映像を、一つの地図上に、撮影方向や撮影位置や撮影視野に違いのある複数の監視カメラの撮影映像を、一つの地図上に、該複数の監視カメラ映像間の映像の見え方の違いを整合し一元表示可能となるため、監視領域の複数監視カメラ映像の読解を異なる監視カメラ撮影映像毎に個別に行う必要がなくなる。また、異なる監視カメラ撮影映像の撮影範囲の相互関係を地図内で容易に把握可能となるため、監視作業負荷を軽減できるという効果がある。
交通監視や商店街などの公共空間や建物のフロアー全体などの広い範囲の監視のための監視システムに利用できる。
本実施例の監視システムの機能ブロック図 本実施例の監視カメラ映像表示方法のデータフロー図 ビルの立ちならぶ街区の鳥瞰図とカメラ設置位置 図3と同一地区の地図とカメラ設置位置 設置位置303の監視カメラから撮影した監視映像の例 設置位置303の監視カメラ撮影映像の道路部分形状が地図の対応する道路部分の形状と一致する幾何変換を施された画像と該画像の地図上への配置 設置位置304の監視カメラから撮影した監視映像の例 設置位置304の監視カメラ撮影映像の道路部分形状が地図の対応する道路部分の形状と一致する幾何変換を施された画像と該画像の地図上への配置 設置位置303の監視カメラが撮影可能な道路部分の撮影範囲を示す地図上でのマスク情報 設置位置304の監視カメラが撮影可能な道路部分の撮影範囲を示す地図上でのマスク情報 設置位置303と304の監視カメラが撮影した道路部分の撮影映像の幾何形状を地図とそれぞれ一致させた画像から道路部分のみ切り出した画像の地図上への合成表示 監視カメラ映像の道路部分形状を地図上の道路部分映像に一致させるための変換を定義するための該映像と地図にそれぞれ設定する座標系と該変換式を計算するために用いる中間座標系 本発明の監視システムの監視映像表示画面 本発明の第2の実施例で用いるネットワーク監視カメラの機能ブロック図 本発明のネットワーク監視カメラの同期基準モードでの動作を説明するフローチャート 本発明のネットワーク監視カメラの同期従属モードでの動作を説明するフローチャート 同期基準モードで動作するカメラと同期従属モードで動作するカメラ間での通信タイミングと通信内容の説明図 剰余器1426の出力値の時間変化を表わすグラフ 映像収集・閲覧サーバ120の内部構成の説明図 監視カメラ別射影変換パラメタの保管形態の説明図。
符号の説明
101,102,103 ネットワーク監視カメラ
104 ネットワーク
120 映像収集・閲覧サーバ
201,202,203 監視カメラの撮影データ
204 蓄積映像
205 地図データ
206 射影変換パラメタ
207 マスク情報
211 受信蓄積処理部
212 射影変換処理部
213 画像合成部
214 監視映像表示部
301〜307 監視カメラ設置位置
1300 監視映像表示画面
1310 地図と監視映像合成表示ウィンドウ
1320 監視カメラ映像無変換表示用ウィンドウ
1301〜1305 監視カメラ別撮影映像表示ウィンドウ
1306 スクロールバー
1307 現在時刻表示ウィンドウ
1308 映像撮影時刻表示ウィンドウ
1309 映像撮影時刻変更アップダウンボタン
2001 監視カメラ1の射影変換パラメタテーブル
2002 監視カメラ2の射影変換パラメタテーブル
2003 監視カメラNの射影変換パラメタテーブル

Claims (12)

  1. 異なる方向から撮影する複数の撮影手段と接続される画像生成装置であって、
    前記撮影手段により撮影された映像各々を前記撮影手段から受ける手段と、
    前記映像データごとに所定の領域を抽出する抽出手段と、
    前記抽出された映像と、前記撮影手段の撮影範囲を含む地図情報とを合成し、画像を生成する合成手段と、
    を有することを特徴とする画像生成装置。
  2. 請求項1記載の画像生成装置であって、
    前記撮影手段の撮影範囲を含む地図情報を保持する手段と、
    前記地図情報に基づいて前記映像の幾何形状を変換する変換手段をさらに有し、
    前記抽出手段は、前記変換された映像データの所定の領域を抽出することを特徴とする画像生成装置。
  3. 請求項2記載の画像生成装置であって、
    前記変換手段は、前記抽出手段で抽出される所定の領域と、前記地図情報との幾何的関係が一致する変換を行うことを特徴とする画像生成装置。
  4. 請求項3記載の画像生成装置であって、
    前記変換手段は、前記撮影手段ごとに、撮影される映像の前記所定の領域に含まれる第一の位置座標と、前記第一の位置座標に対応する前記地図情報の位置座標との関連付けを示すパラメータに基づいて変換を行うことを特徴とする画像生成装置。
  5. 請求項2記載の画像生成装置であって、
    前記抽出手段は、前記変換手段により変換された前記映像データから、前記映像データと前記地図情報との幾何的関係が一致する領域を抽出することを特徴とする画像生成装置。
  6. 請求項5記載の画像生成装置であって、
    前記変換手段により変換された映像データと、前記地図情報との幾何的関係が一致する領域を示す前記撮影手段ごとのマスク情報をあらかじめ保持し、
    前記抽出手段は、前記撮影手段ごとの前記マスク情報に基づいて、それぞれの前記撮影手段により撮影された前記映像から所定の領域を抽出することを特徴とする画像生成装置。
  7. 請求項2記載の画像生成装置であって、
    前記生成手段により合成された画像を表示画面に表示する表示手段をさらに有することを特徴とする画像生成装置。
  8. 異なる方向から撮影する複数の撮影手段と接続され、前記撮影手段の撮影範囲を含む地図情報を表示する表示手段を備える画像表示装置であって、
    それぞれ前記撮影手段により撮影された映像の一部の映像と、前記地図情報の一部の範囲との幾何的関係が一致するよう前記映像を変換する変換手段と、
    前記表示手段は、前記変換手段により変換された映像のうち、前記地図情報と幾何的関係が一致する領域の映像を、前記幾何的関係に従って、前記地図情報を表示する表示領域に表示する表示手段を有することを特徴とする画像表示装置。
  9. 複数の撮影手段により撮影される映像を合成する映像合成方法であって、
    撮影範囲を含む地図情報を保持し、
    前記映像を取得し、
    前記映像の一部の領域と、前記地図情報の所定の範囲との幾何的形状が一致するよう、前記カメラ装置ごとに対応付けられているパラメータに基づいて前記映像を変換し、
    前記変換された映像のうち、前記地図情報の所定の範囲と幾何的形状が一致する範囲の映像を抽出し、
    前記抽出された映像と、前記地図情報とを合成することを特徴とする画像合成方法。
  10. 複数のカメラ装置と、前記カメラ装置各々とネットワークを介して接続される画像生成装置とを有する画像生成システムであって、
    前記カメラ装置各々は、
    撮影する撮影手段と、前記撮影した映像を前記画像生成装置へ送信する手段と、を有し、
    前記画像生成装置は、
    撮影範囲を含む地図情報をあらかじめ保持する保持手段と、
    前記映像を受信する手段と、
    前記映像の一部の領域と、前記地図情報の所定の範囲との幾何的形状が一致するよう、前記カメラ装置ごとに対応付けられているパラメータに基づいて前記映像を変換する手段と、
    前記変換された映像のうち、前記地図情報の所定の範囲と幾何的形状が一致する範囲の映像を抽出する抽出手段と、
    前記抽出された映像と、前記地図情報とを合成し、画像を生成する手段と、
    前記合成された画像を表示する表示する手段とを有することを特徴とする画像生成システム。
  11. 請求項10記載の画像生成システムであって、
    前記カメラ装置は、
    同期基準カウンタを備え、撮影タイミングの基準となる同期信号に関する同期情報を、カメラ装置間で送受信を行い、前記同期情報に基づいて、前記同期基準カウンタの読み出し値を調整し、同期基準カウンタの読み出し値を基に同期信号を生成し、前記同期信号に基づいて前記撮影手段を制御することを特徴とする画像生成システム。
  12. 請求項11記載の画像生成システムであって、
    前記カメラ装置は、前記同期基準カウンタの読み出し値から一意にフレーム番号を算出するフレーム番号生成器を備え、該フレーム番号生成器の発生するフレーム番号を撮影した映像ごとに埋め込み、
    前記画像生成装置は、
    前記カメラ装置各々から受信する映像に埋め込まれているフレーム番号に基づいて、フレーム番号が一致する映像を前記地図情報に合成することを特徴とする画像生成システム。
JP2004097560A 2004-03-30 2004-03-30 画像生成装置、システムまたは画像合成方法。 Expired - Fee Related JP4424031B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004097560A JP4424031B2 (ja) 2004-03-30 2004-03-30 画像生成装置、システムまたは画像合成方法。
US11/086,677 US7412112B2 (en) 2004-03-30 2005-03-23 Image generation apparatus, image generation system and image synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004097560A JP4424031B2 (ja) 2004-03-30 2004-03-30 画像生成装置、システムまたは画像合成方法。

Publications (2)

Publication Number Publication Date
JP2005286685A true JP2005286685A (ja) 2005-10-13
JP4424031B2 JP4424031B2 (ja) 2010-03-03

Family

ID=35054332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004097560A Expired - Fee Related JP4424031B2 (ja) 2004-03-30 2004-03-30 画像生成装置、システムまたは画像合成方法。

Country Status (2)

Country Link
US (1) US7412112B2 (ja)
JP (1) JP4424031B2 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146760A (ja) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd 画像変換方法及び画像変換装置
JP2007214903A (ja) * 2006-02-09 2007-08-23 Mitsubishi Electric Engineering Co Ltd カメラ撮影範囲推定方法
JP2007221582A (ja) * 2006-02-17 2007-08-30 Toshiba Corp 監視システム及び画像処理装置
JP2009017179A (ja) * 2007-07-04 2009-01-22 Hitachi Kokusai Electric Inc 画像処理装置
WO2009072596A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP2009528766A (ja) * 2006-03-01 2009-08-06 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 対象物の複数ビューをリアルタイムビデオ出力で得る方法及びシステム
JP2011018286A (ja) * 2009-07-10 2011-01-27 Toshiba Corp 交通画像情報提供システム
JP2012137933A (ja) * 2010-12-27 2012-07-19 Kokusai Kogyo Co Ltd 被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置
EP2533533A1 (en) 2011-06-08 2012-12-12 Sony Corporation Display Control Device, Display Control Method, Program, and Recording Medium
KR20130130544A (ko) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 감시 영상 표시 방법 및 시스템
JP2015032069A (ja) * 2013-07-31 2015-02-16 Toa株式会社 監視装置及び監視装置の制御プログラム
JP5689561B1 (ja) * 2014-11-17 2015-03-25 株式会社日立パワーソリューションズ 画像補正装置および画像補正プログラム
JP2015143803A (ja) * 2014-01-31 2015-08-06 朝日航洋株式会社 写真地図作成方法
JP2015167281A (ja) * 2014-03-03 2015-09-24 Toa株式会社 画像処理システム及び画像処理プログラム
CN105657290A (zh) * 2016-01-29 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的扫描方法及装置
JP2017505943A (ja) * 2013-12-20 2017-02-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated デジタル合成および/または検索のためのシステム、方法、および装置
WO2017169593A1 (ja) * 2016-03-29 2017-10-05 株式会社日立国際電気 監視システムおよび端末装置
WO2020090126A1 (ja) 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
CN111147735A (zh) * 2019-12-04 2020-05-12 上海呈合信息科技有限公司 一种全实景指挥***
JP2020123818A (ja) * 2019-01-30 2020-08-13 パナソニックi−PROセンシングソリューションズ株式会社 監視装置、監視方法、及び、コンピュータプログラム
US11551378B2 (en) 2018-10-31 2023-01-10 Neural Pocket Inc. Information processing system, information processing device, server device, program, and method to identify a position in a figure

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
WO2006034135A2 (en) * 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
US10692536B1 (en) * 2005-04-16 2020-06-23 Apple Inc. Generation and use of multiclips in video editing
US20070070185A1 (en) * 2005-09-27 2007-03-29 Dy Lady C System and method for remote display of security video images
WO2007107315A1 (de) * 2006-03-22 2007-09-27 Daimler Ag Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
US7801907B2 (en) * 2006-06-13 2010-09-21 Alamy Limited Assignment of a display order to images selected by a search engine
US8453060B2 (en) * 2006-08-25 2013-05-28 Microsoft Corporation Panoramic ring user interface
US20080126533A1 (en) * 2006-11-06 2008-05-29 Microsoft Corporation Feedback based access and control of federated sensors
US8498497B2 (en) 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
JP4522423B2 (ja) * 2007-02-23 2010-08-11 三菱電機株式会社 プラントの監視操作画像統合システムおよび監視操作画像統合方法
US8253797B1 (en) * 2007-03-05 2012-08-28 PureTech Systems Inc. Camera image georeferencing systems
US7777783B1 (en) * 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
US20090028150A1 (en) * 2007-07-26 2009-01-29 Telefonaktiebolaget L M Ericsson (Publ) Protocol-Independent Packet Header Analysis
JP4752827B2 (ja) * 2007-09-04 2011-08-17 ソニー株式会社 地図情報表示装置、地図情報表示方法、及びプログラム
US20090232415A1 (en) * 2008-03-13 2009-09-17 Microsoft Corporation Platform for the production of seamless orthographic imagery
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
JP5517417B2 (ja) * 2008-04-18 2014-06-11 キヤノン株式会社 監視装置及びその制御方法、並びに、プログラム
CA2732314A1 (en) * 2008-08-18 2010-02-25 Waterloo Industries, Inc. Systems and arrangements for object identification
WO2010044186A1 (ja) * 2008-10-17 2010-04-22 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
US8416300B2 (en) * 2009-05-20 2013-04-09 International Business Machines Corporation Traffic system for enhancing driver visibility
US20110110557A1 (en) * 2009-11-06 2011-05-12 Nicholas Clark Geo-locating an Object from Images or Videos
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
KR20110139375A (ko) * 2010-06-23 2011-12-29 삼성전자주식회사 위치 정보가 포함된 이미지의 디스플레이 방법 및 장치
US9594960B2 (en) 2010-09-14 2017-03-14 Microsoft Technology Licensing, Llc Visualizing video within existing still images
JP5791256B2 (ja) * 2010-10-21 2015-10-07 キヤノン株式会社 表示制御装置、表示制御方法
CN102480600B (zh) * 2010-11-22 2014-07-02 上海银晨智能识别科技有限公司 双路监控视频信息融合方法及***
TWI433058B (zh) * 2010-12-23 2014-04-01 Av Tech Corp 安全監控系統及其方法、電腦可讀取儲存媒體及電腦程式產品
US9171075B2 (en) 2010-12-30 2015-10-27 Pelco, Inc. Searching recorded video
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
WO2013162585A1 (en) * 2012-04-26 2013-10-31 Intel Corporation Multiple lenses in a mobile device
US9310987B2 (en) 2013-08-19 2016-04-12 Google Inc. Projections to fix pose of panoramic photos
US9589595B2 (en) 2013-12-20 2017-03-07 Qualcomm Incorporated Selection and tracking of objects for display partitioning and clustering of video frames
CN103970901B (zh) * 2014-05-27 2017-10-03 重庆大学 一种地理信息图形数据整合方法
US10306125B2 (en) 2014-10-09 2019-05-28 Belkin International, Inc. Video camera with privacy
US9179105B1 (en) * 2014-09-15 2015-11-03 Belkin International, Inc. Control of video camera with privacy feedback
JP6885682B2 (ja) * 2016-07-15 2021-06-16 パナソニックi−PROセンシングソリューションズ株式会社 監視システム、管理装置、及び監視方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2002222488A (ja) * 2001-01-29 2002-08-09 Matsushita Electric Ind Co Ltd 交通監視装置
JP2005286453A (ja) * 2004-03-29 2005-10-13 Hitachi Ltd 監視カメラ及び監視システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06284330A (ja) 1993-03-29 1994-10-07 Mitsubishi Electric Corp 地図情報連動監視カメラ制御装置
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
JP3785033B2 (ja) 2000-08-29 2006-06-14 株式会社東芝 監視カメラ制御システム及び監視カメラ制御装置
AU2002239705A1 (en) * 2000-10-27 2002-05-21 The Johns Hopkins University System and method of integrating live video into a contextual background
JP2002344929A (ja) 2001-05-21 2002-11-29 Toshiba Corp カメラ監視システム及び映像配信サーバ
JP2004012307A (ja) * 2002-06-07 2004-01-15 Fujitsu Ten Ltd 画像表示装置
JP2003134503A (ja) 2001-10-25 2003-05-09 Hitachi Kokusai Electric Inc 光軸方向表示方法及び監視カメラ装置
US7385626B2 (en) * 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
JP2005084332A (ja) * 2003-09-08 2005-03-31 Denso Corp 地図表示装置、地図表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (ja) * 2000-02-29 2001-11-16 Hitachi Ltd 画像監視装置
JP2002222488A (ja) * 2001-01-29 2002-08-09 Matsushita Electric Ind Co Ltd 交通監視装置
JP2005286453A (ja) * 2004-03-29 2005-10-13 Hitachi Ltd 監視カメラ及び監視システム

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146760A (ja) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd 画像変換方法及び画像変換装置
JP2007214903A (ja) * 2006-02-09 2007-08-23 Mitsubishi Electric Engineering Co Ltd カメラ撮影範囲推定方法
JP4705485B2 (ja) * 2006-02-09 2011-06-22 三菱電機エンジニアリング株式会社 カメラ撮影範囲推定方法
JP2007221582A (ja) * 2006-02-17 2007-08-30 Toshiba Corp 監視システム及び画像処理装置
JP2009528766A (ja) * 2006-03-01 2009-08-06 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 対象物の複数ビューをリアルタイムビデオ出力で得る方法及びシステム
JP2009017179A (ja) * 2007-07-04 2009-01-22 Hitachi Kokusai Electric Inc 画像処理装置
WO2009072596A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP2009141820A (ja) * 2007-12-07 2009-06-25 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
US9402015B2 (en) 2007-12-07 2016-07-26 Sony Corporation Image processing apparatus, dynamic picture reproduction apparatus, and processing method and program for the same
US8570390B2 (en) 2007-12-07 2013-10-29 Sony Corporation Image processing apparatus, dynamic picture reproduction apparatus, and processing method and program for the same
JP2011018286A (ja) * 2009-07-10 2011-01-27 Toshiba Corp 交通画像情報提供システム
JP2012137933A (ja) * 2010-12-27 2012-07-19 Kokusai Kogyo Co Ltd 被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置
EP2533533A1 (en) 2011-06-08 2012-12-12 Sony Corporation Display Control Device, Display Control Method, Program, and Recording Medium
KR20130130544A (ko) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 감시 영상 표시 방법 및 시스템
KR101695249B1 (ko) * 2012-05-22 2017-01-12 한화테크윈 주식회사 감시 영상 표시 방법 및 시스템
JP2015032069A (ja) * 2013-07-31 2015-02-16 Toa株式会社 監視装置及び監視装置の制御プログラム
US10346465B2 (en) 2013-12-20 2019-07-09 Qualcomm Incorporated Systems, methods, and apparatus for digital composition and/or retrieval
JP2017505943A (ja) * 2013-12-20 2017-02-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated デジタル合成および/または検索のためのシステム、方法、および装置
JP2015143803A (ja) * 2014-01-31 2015-08-06 朝日航洋株式会社 写真地図作成方法
JP2015167281A (ja) * 2014-03-03 2015-09-24 Toa株式会社 画像処理システム及び画像処理プログラム
JP5689561B1 (ja) * 2014-11-17 2015-03-25 株式会社日立パワーソリューションズ 画像補正装置および画像補正プログラム
CN105657290A (zh) * 2016-01-29 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的扫描方法及装置
WO2017169593A1 (ja) * 2016-03-29 2017-10-05 株式会社日立国際電気 監視システムおよび端末装置
JPWO2017169593A1 (ja) * 2016-03-29 2019-02-14 株式会社日立国際電気 監視システムおよび端末装置
WO2020090126A1 (ja) 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
US11551378B2 (en) 2018-10-31 2023-01-10 Neural Pocket Inc. Information processing system, information processing device, server device, program, and method to identify a position in a figure
JP2020123818A (ja) * 2019-01-30 2020-08-13 パナソニックi−PROセンシングソリューションズ株式会社 監視装置、監視方法、及び、コンピュータプログラム
CN111147735A (zh) * 2019-12-04 2020-05-12 上海呈合信息科技有限公司 一种全实景指挥***

Also Published As

Publication number Publication date
JP4424031B2 (ja) 2010-03-03
US20050220361A1 (en) 2005-10-06
US7412112B2 (en) 2008-08-12

Similar Documents

Publication Publication Date Title
JP4424031B2 (ja) 画像生成装置、システムまたは画像合成方法。
KR101937272B1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
JP4670303B2 (ja) 画像処理方法及び画像処理装置
EP2693393A1 (en) Information processing device, information processing method, and data structure of location information
CN102892007B (zh) 促进多个摄像机间颜色平衡同步和获得跟踪的方法和***
JP2011254289A (ja) 移動体軌跡表示装置および移動体軌跡表示プログラム
JP5183152B2 (ja) 画像処理装置
EP2016761A2 (en) Real-time capture and transformation of hemispherical video images to images in rectilinear coordinates
WO2017134770A1 (ja) 映像同期装置
WO2020039897A1 (ja) 駅監視システム及び駅監視方法
JP2023100805A (ja) 撮像装置、撮像方法及び撮像プログラム
JP2000253391A (ja) パノラマ映像生成システム
JP5697369B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US11494934B2 (en) Image processing device, image processing method, and monitoring system
KR101670247B1 (ko) Cctv 실시간 영상의 원클릭 선택을 이용한 객체 확대 이동 시스템 및 그 방법
JP4419640B2 (ja) 監視カメラ及び監視システム
WO2020039898A1 (ja) 駅監視装置、駅監視方法及びプログラム
JP2014014011A (ja) 静止画自動生成システム、静止画自動生成システムにおける作業者用情報処理端末及び指示者用情報処理端末、及び判定装置
JP2006074513A (ja) 監視システム及び監視装置
WO2002091746A2 (fr) Dispositif de traitement d'image, procede de traitement d'image et systeme de surveillance de vehicules
CN114184127A (zh) 一种基于单相机无标靶的建筑物全局位移监测方法
JP4207008B2 (ja) 画像処理システム、画像処理装置、コンピュータプログラム、及び画像遅延量算出方法
WO2024070602A1 (ja) 情報表示システム、情報表示方法、プログラム
CN114089675B (zh) 一种基于人机距离的机器控制方法及控制***
JP4333255B2 (ja) 監視装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees