JP2005176301A - 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム - Google Patents

画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2005176301A
JP2005176301A JP2004238444A JP2004238444A JP2005176301A JP 2005176301 A JP2005176301 A JP 2005176301A JP 2004238444 A JP2004238444 A JP 2004238444A JP 2004238444 A JP2004238444 A JP 2004238444A JP 2005176301 A JP2005176301 A JP 2005176301A
Authority
JP
Japan
Prior art keywords
image
camera
unit
detection
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004238444A
Other languages
English (en)
Inventor
Takao Fujita
崇夫 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004238444A priority Critical patent/JP2005176301A/ja
Priority to US10/985,191 priority patent/US20050099500A1/en
Publication of JP2005176301A publication Critical patent/JP2005176301A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 表示装置の能力が十分でない、或いはネットワークの能力が十分でないシステムにおいても、撮像画像の状況変化を的確に把握することができる画像処理装置等を提供する。
【解決手段】 カメラユニット周辺の状況変化を検出し、検出に応答してカメラユニットの撮像画像を取得し(S11)、撮像画像のうち状況変化のあった領域の画像を切り出し(S12)、切り出し画像をサーバユニットへ送信する(S13)
【選択図】 図7

Description

本発明は、カメラから得られた画像の処理に関するものであり、特に、カメラから得られた画像を、ネットワークを介して接続された表示装置において表示可能とした画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラムに関するものである。
近年インターネット、イントラネットの普及、高速化に伴い、ネットワークを利用した静止画像や動画像の情報伝送が一般的に行われている。その中で、リアルタイムに周辺状況の画像を撮影し、ネットワークを介して表示器で観察するネットワークカメラシステムが出現している。そのようなシステムの例としては、キヤノン社製ネットワークカメラサーバVB150を用いたWebView Livescopeシステムなどがある。
ネットワークカメラシステムでは、パン、チルト、ズームなどの操作がコマンドを送ることにより制御可能なカメラと、カメラからの画像をネットワークに送信するカメラサーバと、パソコンなどを利用したネットワークに接続された表示装置から構成されている。パソコンなど表示装置側では、カメラが設置されている遠隔地の画像を観察できると供に、画像を取得しているカメラの操作が可能となっている。
一方、魚眼レンズや回転体ミラーなどの広角光学系や全方位撮像系を用いて撮影した画像からパノラマ画像や通常画像を生成し、ネットワークを通じて閲覧する技術が一般に知られている。
例えば「尾上,山澤,横矢,竹村:“全方位画像からの視線追従型実時間画像生成によるテレプレゼンス”,信学技報,PRMU97−20(1997−05)」では、回転双曲面ミラーを用いて撮影した全方位画像を遠隔地の利用者に送信し、利用者の視線方向の透視投影画像を生成するテレプレゼンスシステムが提案されている。またBe Here Co.出願のUSP6043837では、指定した全方位画像の扇型部分領域を送信し、利用者側でこれを矩形領域に変換して表示する方式が開示されている。
回転体ミラーの構造例を図20に示す。図20(a)は回転体ミラーの外観の模式図である。回転体ミラーはミラー部2001、ミラー部を支えるガラス筒部2002、カメラ装着用のねじを持つカメラ接続部2003、黒針2004などからなる。ミラー部2001の断面は球、放物線、双曲線などの形状である。このような回転体ミラーの構造例に関しては特許文献1に詳しく述べられている。
図20(b)は撮影原理を説明する図であり、回転体ミラー2005がカメラ2006に装着された状態を模式的に示している。ここで空間上の点P2009を出た光線は回転体ミラーに反射して2010のような経路によって、レンズ2007を通過しCCD面2008に到達する。その結果、例えばカメラを垂直方向上に向けて撮影した場合、図20(c)に示すような全方位画像を得る。
図20(c)の全方位画像の中心には黒針部2004が2011のように円状に存在する。その外側に周囲360度の画像2012が回転体ミラーの外周まで存在する。さらにその外側にはミラーを介さずに直接カメラに入る光線や、回転体ミラー底面2013が映る。図では直接カメラに入る光線は省略しているが、この光線の有無は本発明には無関係である。なお回転体ミラーには「八木:“全方位ビジョンの研究動向”,コンピュータビジョンとイメージメディア,Vol125,pp.147−160」に述べられているようにさまざまな種類のものが存在する。例えば、黒針部2004が無いものや、ミラーの保持方法が異なるものなどが存在する。
図20(c)の全方位画像は図20(d)に示すようなパノラマ画像に変換することができる。これは全方位画像の中心を定めて同心円上に存在する点を矩形領域の横軸方向に並べることによって可能である。また回転体ミラーを用いたときの、空間上の点と全方位画像上の点との対応関係が特許文献2に詳しく述べられており,空間中に設けた円筒面に全方位画像を逆投影することで、パノラマ画像を生成することもできる。通常画像はパノラマ画像の一部を切り出すことによって生成できるし、あるいは空間上に画像平面を決めて全方位画像上の点を投影することによっても生成できる。このようなパノラマ画像の生成方法に関しては従来例に詳しく述べられているので説明を省略する。
特開平11−174603号公報 特開平06−295333号公報
しかしながら、携帯電話や携帯端末等の表示装置の能力が十分でない、或いはネットワークの能力が十分でないシステムにおいて、カメラ側から送られてくる撮像画像のなかでどこの領域が変化しているかを把握することは、非常に困難である。
本発明は、上述した問題点を解決するためのものであり、表示装置の能力が十分でない、或いはネットワークの能力が十分でないシステムにおいても、撮像画像の状況変化を的確に把握することができる画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の画像処理装置は、カメラにより撮像された画像を処理する画像処理装置であって、カメラ周辺の状況変化を検出する検出手段と、前記検出手段による検出に応答して前記カメラの撮像画像を取得する取得手段と、前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し手段と、前記切り出し手段による切り出し画像を出力する出力手段と、を備えることを特徴とする。
また、本発明のネットワークカメラシステムは、カメラにより撮像された画像を表示するネットワークカメラシステムであって、カメラ周辺の状況変化を検出する検出手段と、前記検出手段による検出に応答して前記カメラの撮像画像を取得する取得手段と、前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し手段と、前記切り出し手段による切り出し画像をネットワークに対して送出する送出手段と、前記送出手段により送出された切り出し画像を表示する表示手段と、を備えることを特徴とする。
また、本発明の画像処理方法は、カメラにより撮像された画像を処理する画像処理方法であって、カメラ周辺の状況変化を検出する検出工程と、前記検出工程における検出に応答して前記カメラの撮像画像を取得する取得工程と、前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し工程と、前記切り出し工程における切り出し画像を出力する出力工程と、を備えることを特徴とする。
また、本発明のプログラムは、カメラにより撮像された画像を処理する画像処理方法を実行するためのプログラムであって、カメラ周辺の状況変化を検出する検出ステップと、前記検出ステップにおける検出に応答して前記カメラの撮像画像を取得する取得ステップと、前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出しステップと、前記切り出しステップにおける切り出し画像を出力する出力ステップと、を備えることを特徴とする。
本発明によれば、表示装置の能力が十分でない、或いはネットワークの能力が十分でないシステムにおいても、撮像画像の状況変化を的確に把握することができる。
以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施形態)
本実施形態におけるネットワークカメラシステムのハードウェア構成例を図1のブロック図に示す。ネットワークカメラシステムは、カメラユニット11、サーバユニット12、ネットワーク13、ビューワ14から構成される。カメラユニット11は、センサ113により周辺状況の変化と方向を検知する。そして、光学系111を介して撮像部112、カメラ制御部114で周辺画像を撮影する。さらに撮影した画像から変化検出方向の部分画像を切り出し無線通信を介してサーバユニット12に送信する。サーバユニット12は受信した画像データをインターネットやイントラネットなどのネットワーク13に送信する。ビューワ14はネットワーク13から画像データを受け取り、表示器に表示する。ビューワ14はネットワーク13に接続可能であれば何処にあってもよく、カメラユニットの設置された場所の変化状況を、遠隔から知ることができる。
また、カメラユニット11とサーバユニット12間の通信は無線通信とし、通常は有線であるネットワーク13への接続のため設置場所に制約を受けるサーバユニット11からカメラユニット12を切り離し、監視したい場所でのカメラユニット11の自由な設置を可能にする。利用形態によってはカメラユニット11とサーバユニット12間の通信はケーブルによる有線通信や、直接接続であっても構わない。
カメラユニット11は、撮像するための光学系111、CCDやCMOSイメージセンサを用した撮像部112、フォーカス、絞り、ホワイトバランス、シャッターなどのカメラ制御やセンサ信号の処理、撮像部からの画像データの圧縮、変化部分の画像切り出しを行うカメラ制御部114、切り出した画像をサーバユニットに無線伝送するための無線I/F115からなる。
無線通信の方式の一例としては民生用途向けに開発された低価格の通信方式としてスペクトラム拡散技術を用いたBluetooth方式がある。
2.4GHz帯の周波数ホッピング方式スペクトラム拡散変調を用い、約700Kビット/秒のデータを10m〜100mの距離で無線通信する方式である。小型、低価格であり消費電力も小さいため、小型機器への組み込みが容易である。
光学系111は180度程度の視野角を持つ魚眼レンズや、側方360度の視野角を持ち全方位画像を映す回転体ミラーを用いて1つのカメラで広範囲の監視を可能とする。もちろん通常のカメラの光学系を使用しても構わない。以下の説明においては回転体ミラーを用いた全方位光学系を例に説明する。
サーバユニット12はカメラユニット11からの無線による画像データを受信するための無線I/F121と、受信された画像データを受けて、カメラユニットの回転体ミラーによる撮影画像の歪の補正、ネットワークサーバ機能を実現するサーバ制御部122、歪補正された矩形の画像データをネットワークに送出するネットワークI/F123からなる。
ネットワークサーバ機能の例としては、インターネットで広く利用されているWWW(World Wide Web)ブラウザーで利用可能なキヤノン社製WebViewプロトコルなどがある。
ビューワ14はネットワーク13を介して、サーバユニット12からの矩形の切り出し画像を受信し表示する。図1の例ではビューワは直接有線接続によりネットワークに接続する形態を示しているが、本提案はネットワーク形態に制限されない。
図2にインターネットなどのネットワークからのデータを無線ルータにより無線化して無線ビューワに送信する例を示す。無線化されたビューワを用いることにより、監視者は電波の届く範囲であればどこにいても監視地の変化を知ることが可能となる。
さらに無線公衆網を利用する携帯電話に代表される無線携帯端末をビューワとして用いると、その携帯電話サービスのサービスエリア内であればどこにいても監視地の変化を知ることが可能となる。その場合の無線ルータ機能は回線事業者のもつネットワークルータや交換機、無線基地局などに置き換えられる。
カメラユニットとサーバユニットの外観例を図3及び図4に示す。図3では無線通信を利用し、両ユニットを切り離して使用する場合を示している。カメラユニット31とサーバユニット32は無線通信によりデータを受け渡し、接続ケーブルなしで自由な設置、運用が可能となる。サーバユニット32には、ネットワーク35と、電源34が接続される。
図4ではサーバユニット41の上にカメラユニット42を乗せて使用する場合を示している。両ユニットはコネクタによる接続され、通信や電源供給が直接接続により行われる。
次に、図1〜図4のカメラユニットとサーバユニットの構成について図5を用いてさらに詳しく説明する。カメラユニット51は、周辺状況の変化を検知する複数のセンサ515A、515B、515C、515D、センサ515を駆動すると供にセンサ出力信号に基づいて変化検出方向を出力するセンサ制御部516、撮像のためのCCD511、フォーカス、絞り、ホワイトバランスなどのCCD制御を行う撮像部512、撮像部512からの画像データをJPEGやMPEGなどの圧縮方式で圧縮する画像圧縮部513、画像圧縮部513からの圧縮画像データ、センサ制御部515からのセンサ信号を受けて無線通信I/F318や通信I/F部519へデータを送出すると供に変化方向の画像を切り出すプロセッサ部517、プロセッサ517の処理に利用されるメモリ部514、サーバユニット52へ無線でデータを送出する場合に使用する無線通信I/F518、サーバユニットへ直接接続する場合にデータを送出する通信I/F部519、無線通信時にカメラユニット51がサーバユニット52から離れて動作する場合の電源となる電池5111と電池制御部5110からなる。
サーバユニット52は、カメラユニット51からの無線データを受信するための無線通信I/F521、カメラユニット51とサーバユニット52を直接接続した場合に使用する通信I/F522、無線通信I/F521または通信I/F522からのデータを受けて回転体ミラー光学系で歪んだ画像データを歪みのない画像に変換し、矩形画像としてネットワークインターフェースに送出すると共に、ネットワーク上の画像サーバとして機能するプロセッサ524と、プロセッサ524の処理に利用するメモリ523、ネットワーク53を介してデータ送受を行うネットワークインターフェース525、カメラユニットが直接接続された時にカメラユニット51の電池を充電するために充電部525、サーバユニット52全体の電源を供給する電源部527からなる。
カメラユニット51では常時、周辺状況の変化を検知のためのセンサ515とセンサ制御部516など、必要な最低限の部分のみに給電され、他の部分は電源を切るスリープ状態とし、電池5111の消費を抑える。
センサ515の複数センサの少なくとも一つが周辺状況の変化を検知すると、スリープ状態からカメラユニット51全体を起動し、即座に全周囲画像を撮像する。CCD511により撮像された画像データは画像圧縮部513でJPEGやMPEGなどの圧縮データとして、メモリ514に格納される。
センサ515の例として、人体などから発する赤外光の変化を検出する焦電型モーションセンサなどが使用される。この焦電型モーションセンサは数十度の角度指向性をもつため、カメラユニットの360度に対して検知する場合は図6(a)に示すように複数用意する。
図6(b)にカメラユニットを上方から見た図を示す。カメラユニットに4つのセンサ6A、6B、6C、6Dを配置し、4つのセンサの検出角度を合わせて360度全方位の検出をカバーする。
センサ制御部516にて、この4つのセンサのうちどのセンサが検出したかを判断することにより、検出方向を知ることができる。指向性のシャープなセンサを使用し、数を増やすことにより検出方向の精度を向上させることができる。
また、センサ515の例として、マイクロフォンを使った音声センサの使用も可能である。その場合、図6と同様に指向性特性をもつ音声センサを複数設けて360度全方位の検出をカバーする。音声センサの場合信号出力は一般的にアナログ信号であるため、複数センサのうちどのセンサが最もレベルの高い信号を検出したかにより、大まかな方向を知る。さらに最大レベルを検出したセンサと、その次にレベルの高いセンサ信号から、音源の方向を内挿することにより、さらに分解能の高い方向検出が可能となる。
これらの焦電型モーションセンサに代表される赤外センサや、マイクロフォンに代表される音声センサの組み合わせにより、より確度の高い侵入者検出が可能となる。
ここで本実施形態におけるシステム動作を図7のフローチャートを用いて説明する。
まず、センサ制御部516で状況変化のおよびその方向の検出を行い、これに応答して全周囲画像を取得する(S11)。その後、メモリ514に格納された全周囲画像のうち、検出方向に対応する領域の画像を切り出す処理をプロセッサ517で実行する(S12)。
図8に切り出し処理の例を示す。81は黒針部の画像、82は周囲360度の画像、83はその外側には回転体ミラー底面の画像である。
プロセッサ517は、センサにより検出され方向を中心とする領域の画像を切り出す。この切り出し画像はサーバユニットに送信された後、画像の歪みの除去処理を施す。ここで、ネットワークを介してビューワに表示されることを考慮し、例えばビューワの表示器の表示アスペクトレシオ6:4に対応した、図8(c)に示すような扇型に切り出すのが適当である。
プロセッサ517は切り出された部分画像を無線通信I/F518または通信I/F519の何れかに送出する(S13)。
カメラユニット51の設置場所を自由に選択できるようカメラユニットと51サーバユニット52を切り離して使用する場合は無線通信I/F518を利用する。カメラユニット51の電源は電池制御部5110を介して電池5111から供給され、カメラユニット51はワイヤレスの状態で使用される。
このワイヤレスの状態ではカメラユニットは電池で駆動されるため、カメラユニットの低消費電力化が重要であるが、前記切り出し方法によれば、切り出しに必要なプロセッサの処理は検出角度を中心とする、扇型画像の切り出しのみとなり、低消費電力の携帯機器用プロセッサ等で賄える範囲となる。
カメラユニット51とサーバユニット52を直接接続した場合は通信I/F519を利用してサーバユニット52にデータを送出する。この通信I/F519には例えばUSB、IEEE1394などの方式が利用可能であるが、これに限られる物ではない。
これらの通信方式は無線通信に比べて高速なデータ通信が可能であるため、直接接続時には、例えば動画像などデータ量の大きな画像データの送出が可能となる。また、直接接続時にはカメラユニット51内の電池を充電するため、充電機能を具備する。
以上説明したように、本実施形態によれば、カメラ周辺の状況変化と変化方向を検出するための指向性を持つ複数のセンサ6A〜6Dからの撮影タイミングを受けて周辺画像を撮影し、前記センサからの検出方向に基づいて、画像領域を切り出し、切り出した画像のデータをネットワークに送信することにより、例えば部屋の中央などの自由な監視場所に機器を置くだけで遠隔からの監視が可能となる。
また、無線通信と併用して、カメラユニットの電源を電池として接続ケーブルを完全に無くすことにより、カメラユニットの設置自由度を飛躍的に増大し、設置工事も不要となり、必要な時に必要な場所に置くだけで状況監視の目的が達成される。
また、センサにのみ常時電源を供給して周囲状況を監視し、変化を検知した時のみカメラを動作させると同時にカメラでの処理を簡単化することにより低消費電力を実現し、電池駆動であっても長時間の状況監視が可能となる。
本実施形態では、カメラユニットがサーバを介してビューワにネットワーク接続されるシステムを説明したが、システム構成はこれに限るものではない。すなわち、カメラユニットから直接に無線公衆網に接続して、さらにカメラユニットの設置可能場所を拡大することができるようにしてもよい。
図9にその場合のカメラユニットの構成を示す。通信インターフェースとして、携帯電話やPHSなどの無線公衆網に接続するための無線公衆網通信ユニット901を具備する。
周辺状況の変化検知後、撮影され切り出された変化画像データは無線公衆網に直接送信され、携帯電話などのビューワで受信して表示される。
(第2の実施形態)
本実施形態では、第1の実施形態とは異なる状況変化の検出及び切り出し処理を行うネットワークカメラシステムの動作について説明する。
本実施形態におけるネットワークカメラシステムのハードウェア構成、カメラユニットとサーバユニットの外観、カメラユニットとサーバユニットの構成、及びセンサ配置は、第1の実施形態の図1〜図6と同じものであるので、その説明を省略する。
ただし、本実施形態において、図5のメモリ514内には、事前に設定されたタイミングで撮影された、変化のない平常時の比較用周辺画像が格納されている。この比較用周辺画像をとるタイミングには、例えば一定時間おきにタイマーを使って撮影する方法などがある。
ここで本実施形態におけるシステム動作を図10のフローチャートを用いて説明する。
まずメモリ514に記憶された周辺画像データを、比較用周辺画像として設定し(S21)、センサ515による検知タイミングで画像データを取得する(S22)。
プロセッサ517は比較用周辺画像と撮影した画像データを比較し、それぞれの画像領域のデータ値が所定の閾値を超えたことから変化があったかどうか判断し(S23)、変化がないと判断した場合は、ステップS22に戻りセンサによる検知を待つ。
ステップS23で変化があったと判断した場合、変化があったと判断される画素、または画素の集合であるブロックを抽出し、これから変化部分を切り出す(S24)。
図11に切り出し処理の例を示す。1101は黒針部の画像、1102は周囲360度の画像、1103はその外側には回転体ミラー底面の画像である。比較用周辺画像(a)とセンサの検知により撮影した現画像(b)との比較から、(c)の部分1105を変化部分として切り出す。
この変化検知に使用する画像データは、画像圧縮前のデータであっても画像圧縮後のデータであってもよい。
プロセッサ517の制御のもと、切り出された部分画像は無線通信I/F518または通信I/F519の何れかを介してサーバユニットへと送出される(S25)。
上記実施形態では、センサによる周辺状況の変化検出を行ったが、これに代わり、CCDにより撮影された画像データを使って周辺状況の変化を検出することができるようにしてもよい。
この場合、カメラユニット内のCCD、撮像部、画像圧縮部、プロセッサ、メモリを常に動作状態として、連続的または秒単位の短い周期の繰り返しで周辺画像を撮影する。この時、現在撮影した最新の画像データと、その前に撮影した撮影データを比較し、データ値がある閾値を超えたことにより周辺状況の変化を検知する。
(第3の実施形態)
本実施形態では、第1及び第2の実施形態とは異なる画像送信処理、及び画像表示処理を行うネットワークカメラシステムの動作について説明する。
本実施形態におけるネットワークカメラシステムのハードウェア構成、カメラユニットとサーバユニットの外観、カメラユニットとサーバユニットの構成、及びセンサ配置は、第1の実施形態の図1〜図6と同じものであるので、その説明を省略する。
図12は、本実施形態に関るビューワの詳細な構成を示すブロック図である。ビューワ1200は携帯電話や携帯情報端末(PDA)などの携帯機器でネットワーク1205を介してサーバユニットからのデータを受け取る。ネットワークインターフェース1201は携帯電話で利用されている公衆無線回線経由のインターネットなどの形態が挙げられるがこれに限るものではない。サーバユニット1202からネットワークインターフェース1201を介して受け取った画像データはメモリ1202、プロセッサ1203で処理を実行し、表示器1204に表示される。
図5、図12、及び図13を用いて本実施形態のネットワークカメラの動作を説明する。
図13は本実施形態の切り出し処理を説明する図であり、図中の1308はカメラユニット51で撮影された全方位画像である。この全方位画像は回転体ミラーを用いた光学系により1308に示す丸形の画像となってCCD511に投影される。サーバユニット52にはこの丸型の画像として伝送される。
1302はサーバユニットにて丸型画像から人に認識しやすい矩形画像に変換した画像を示している。解像度は例えば400×1600ピクセルの横長画像となる。
1304はビューワの小型表示器(例えば120×160ピクセル)の表示器解像度に合わせて縮小処理を実行した画像である。
1301はセンサ315で周辺の変化検知時のカメラユニット51で撮影した全方位画像を示す。事前の撮影された平常時の全方位画像1308との比較により、扇型の点線で示す変化部分を切り出す。
1305は変化部分を切り出した部分矩形画像である。カメラユニットで1301の点線で示す扇形の画像として切り出し、サーバユニットにて1305の矩形画像に変換される。
サーバユニット52は1305のデータを、ネットワークを介してビューワに送信する。1305は部分画像であるためビューワではそのままの解像度での画像1306で保存する。
1307は縮小周辺画像1304に変化部分画像を解像度と位置関係を合わせた後、重ねて表示したものを示している。
全方位画像を取得するに際して、最初にユーザは監視したい部屋などの場所にカメラユニットを設置する。設置後ユーザが監視動作を開始させるための操作を行う。例えばカメラユニットとサーバユニットの電源を入れる。カメラユニットはこの電源投入のタイミングから制御部を構成するプロセッサ等で一定の遅延時間を作り、遅延時間の経過後、全方位画像を1フレーム撮影し、これを平常時の全方位画像1308とする。この遅延時間を設けたことにより、カメラを設置したユーザは自分自身の写らない確実な平常時の全方位画像を撮影することができる。
次に、カメラユニットはこの全方位画像をサーバユニットに送信し、送信終了スリープ状態となり起動待機状態となる。サーバユニットでは丸型画像1308を1302に示す矩形画像への変換処理を施し、メモリ523に保存する。この矩形画像の解像度は通常の携帯電話などの表示器解像度(例えば120×160ピクセル)に比較して大きく、そのままでは一部しか表示することができないので、表示器の縦の解像度(例えば120ピクセル)に合わせた解像度画像1304への縮小処理を実行する。
このビューワ1200の表示器の解像度に合わせた縮小矩形画像1304を、ネットワークを介してビューワに送信する。
ビューワ1200では、この縮小矩形画像1304を受信し、平常時の周辺画像として表示器のメモリ1202に蓄積し、ビューワの表示器1204に表示する。この設置時の周辺画像をビューワに表示する機能により、ユーザにカメラの正常な設置の完了を通知することが可能となる。
また、この場合表示と同時に表示器上の文字や音声にて設置の完了を知らせることも可能である。
図12〜図15を参照しながら本実施形態のビューワでの縮小矩形画像の表示方法について説明する。ここで、図14は、本システムで実行される上記方法を説明するためのフローチャートであり、ステップS31〜S35はカメラユニット、S36はカメラユニットとサーバユニット、ステップS37はビューワ側のそれぞれプロセッサにより制御されるステップである。
まずメモリ514に記憶された周辺画像データを、比較用周辺画像として設定する(S31)。ここでの周辺画像データは、すでに説明したように、設置時に撮影された平常状態の画像である。その後、センサによる状況変化の検出を待機する。
最初はこの周辺画像を平常時の比較画像として利用するが、その後の時間経過に伴う周辺の変化を定期的に捉えるためには、例えば一定時間おきにタイマーを使って撮影して新しい平常時の周辺画像とする方法などを採用してもよい。
次にセンサ515が周辺状況の変化を検知すると、スリープ状態からカメラユニット51全体を起動し、即座に撮像する(S32)。CCD511により撮像された画像データは撮像処理部512を介して、メモリ514に格納される。
プロセッサ517は、比較用周辺画像とセンサ115による検知タイミングで撮影した画像データを比較し、それぞれの画像領域のデータ値がある閾値を超えたことから変化があったかどうか判断し(S33)、変化かがないと判断した場合は、ステップS32に戻りセンサによる検知を待つ。
ステップS33で変化があったと判断した場合、変化があったと判断される画素、または画素の集合であるブロックを抽出し、これから変化部分を切り出す(S34)。
図13で示したように、プロセッサ517は、全周囲画像1301の中から変化部分のみを扇型に切り出し、サーバユニット52に伝送する(S35)。
サーバユニット52ではこれを矩形画像1305に変換し、ビューワ1200に伝送する。カメラユニット51から切り出した扇型画像を伝送する際には全方位に対する切り出し位置の情報も付加し、サーバユニット52ではこの位置情報に基づいて矩形画像変換を実行する。さらに、ビューワ1200への矩形画像伝送時にこの位置情報も合わせて伝送する(S36)。
ビューワ1200では、この変化部分画像をそのままの解像度でみることもできるが、1307に示すように縮小全方位画像1304の解像度と位置関係を合わせて、変化部分を重ねて表示することにより、より的確な状況把握を可能にする(S37)。
図15において、1502はビューワの表示器の解像度を示しており、例えば縦120ピクセル、横160ピクセルの解像度を持つ。1501はサーバユニットで縮小処理を実行し、ビューワに送信後ビューワのメモリ132に蓄積された全方位画像を示している。全方位画像であるため、図のような細長い画像となる。この全方位画像1501の縦の解像度を表示器の縦の解像度120ピクセルにサーバユニット側で合わせて送信することにより、図のような関係の画像となる。これによりビューワでは全方位画像を確認する際には、横方向のスクロールのみで全体の把握が容易となる。
画像の重ね合わせについて図16を使ってさらに詳しく説明する。図16(a)は設置時に撮影する、平常時の全方位画像を示している。カメラユニットで撮影したこの全方位画像データを、無線通信を介してサーバユニットに送る。
サーバユニットでは送られた丸型の全方位画像を、認識が容易な矩形画像図16(b)に変換する。この矩形画像はさらに、ビューワの表示器解像度に合わせて縮小処理を行い、ビューワに伝送後蓄積される。
図16(c)は、センサ515による変化検知時の画像を示している。侵入者によりセンサが動作し、その時の全方位画像をカメラユニットが撮影する。
カメラユニットでは、このセンサ動作時の画像図16(c)と、平常時の画像図16(a)の比較により、変化部分を扇型の画像図16(d)に切り出す。この場合、切り出す画像の大きさは最低限の変化があった部分のみ(図16の場合は人間にあたる部分のみ)であってもよいし、周辺を含めた余裕を持った面積であっても良い。
この扇型切り出し画像図16(d)をサーバユニットに伝送し、サーバユニットにて部分画像の矩形変換処理を実行し、図16(e)に示す矩形切り出し画像にする。
この矩形切り出し画像図16(e)をビューワの伝送し、表示器に表示する。図16(f)に示すように、矩形切り出し画像の表示時は解像度の変換をすることなく表示するため、表示器に大きく表示することができるが、変化部分のみの画像となるため、周辺の画像は含まれない。そのため切り出された画像が実際の監視場所のどの位置にあるかなどの的確な判断がし難い場合が生じる。
そのために事前のビューワに送られた平常時の全方位画像に矩形切り出し画像を重ね合わせる機能を用意する。図16(g)に示すように、全周囲画像と解像度、位置関係を合わせて表示することにより背景に変化部分を重ね合わせて表示する。
以上説明してきたように、本実施形態によれば、監視地の状況変化を検知時には撮影された画像の内、例えば人の侵入などの変化した部分のみをネットワークを介して表示器に送信し、事前に送信した平常時の周辺画像と重ね合わせて表示することにより、個人が携帯できる小型の機器(たとえば携帯無線電話に代表される携帯通信端末)に搭載されている120X160ピクセル程度の小さな表示器においても、的確な状況判断が可能となる。
さらに、設置時に無人の平常時周辺画像をビューワに送信し表示すると供にユーザに通知することにより、確実な設置状態の完了を確認することが可能になる。
(第4の実施形態)
上記第2及び第3の実施形態では、比較用周辺画像については、起動時初期はメモリ114内の設置時に撮影された平常状態の周辺画像を比較用周辺画像として設定した。
本実施形態では、以下に挙げる1つ、または複数の組み合わせによるタイミング決定方法を用いて随時更新して、その後の時間経過に伴う周辺の変化を捉える。この更新に伴なって前記と同様の方法にてビューワ内の周辺画像204も随時更新される。
(1)タイマー等で一定時間おきに周辺画像を撮影して、新しい平常時の周辺画像とする。
(2)ビューワの操作により、ネットワーク、カメラサーバを介してカメラユニットに周辺画像撮影コマンドを送ることにより周辺画像を更新する。
(3)カメラユニットに周辺照度を検知する照度センサを用意して、一定の照度変化が検知された時に周辺画像を自動更新する。また、比較用周辺画像と変化検知時の画像の撮影については、常時フラッシュ発光を伴なう撮影として、鮮明な画像撮影と侵入者威嚇の両目的を達成する場合も同様の構成で実現が可能である。
上記各方法に基づく処理は、例えば、図10のステップS21、図14のステップS31等において実行することができる。
(第5の実施形態)
上記実施形態においてビューワでの画像表示処理を行う際、ビューワに蓄積されている周辺画像と、ビューワに送られた切り出し画像5(e)との解像度は一致しないことがある。本実施形態では、適切に重ねて表示するために以下のいずれかの方法により解像度一致処理を行う。
(1)ビューワに蓄積された周辺画像は例えば縦解像度を120ピクセルに縮小して蓄積されている。切り出し画像をサーバユニットからビューワに送信する前にサーバユニットにおいて、この周辺画像の縮小率と同一の縮小処理を切り出し画像に対して実行した後に重ね合わせの位置情報と共にビューワに送信する。
(2)サーバユニットでは切り出し画像に対して縮小処理を行うことなくそのままの解像度でビューワに送信し、ビューワにて画像を蓄積する。その後、蓄積した切り出し画像に対して、前記(1)と同様の縮小処理を実行する。
(3)サーバユニットでは切り出し画像に対して縮小処理を行うことなくそのままの解像度でビューワに送信し、ビューワにて画像を蓄積する。その後、蓄積した切り出し画像を任意のサイズで表示する場合、切り出し画像の拡大縮小処理を実施すると共に、ビューワに蓄積された周辺画像についても最適の拡大縮小率で周辺画像の全てまたはビューワに表示される部分について拡大縮小処理を行う。
(4)上記(3)の方法に従い拡大縮小処理を行った結果、切り出し画像に比べてビューワに蓄積された周辺画像の解像度が低いにもかかわらず大きく拡大される場合は、拡大に伴う画素の内挿処理によりボケた周辺画像になってしまう。これを解決するためにビューワに表示されている周辺画像の部分については、前述のボケた画像を表示した後にサーバユニットに縮小前の画像データの送信を要求し、より高い解像度の周辺画像データを受け取り、周辺画像を切り出し画像と同様の高い解像度の画像に書き換える。
上記各方法に基づく処理は、例えば、図14のステップS36及びステップS37等において実行することができる。
(第6の実施形態)
上記実施形態では、状況変化時に1枚しか画像を取得しておらず、変化をもたらした被写体の静止状態のみが把握できるものである。本実施形態では、カメラでの連続撮影とビューワでの連続表示により、被写体の動きまでも把握できるようにしたものである。
図17を参照しながら本実施形態のビューワでの縮小矩形画像の表示方法について説明する。ここで、図17は、本システムで実行される上記方法を説明するためのフローチャートであり、ステップS41〜S45はカメラユニット、S46はカメラユニットとサーバユニット、ステップS47はビューワ側のそれぞれプロセッサにより制御されるステップである。
本実施形態のビューワ側では、図15と同様の画面表示がされ、これによりビューワでは全方位画像を確認する際には、横方向のスクロールのみで全体の把握が容易となる。
まずメモリ514に記憶された周辺画像データを、比較用周辺画像として設定する(S41)。ここでの周辺画像データは、すでに説明したように、設置時に撮影された平常状態の画像である。その後、センサによる状況変化の検出を待機する。
次にセンサ115が周辺状況の変化を検知すると、スリープ状態からカメラユニット101全体を起動し、即座に1枚目を撮像する。その後、センサ115が連続した時間周辺状況の変化を検知し続けると、検知期間中例えば一定の時間間隔で複数の撮像を連続して実行する(S42)。撮像した複数枚の画像データは撮像処理部512を介してメモリ514に順次格納される。
プロセッサ517は比較用周辺画像と、センサ515による検知タイミングで撮影した複数枚の変化検知画像それぞれについて画像データを比較し、画像領域のデータ値がある閾値を超えたことから変化があっかどうか判断し(S43)、変化がないと判断した場合は、ステップS42に戻りセンサによる検知を待つ。
ステップS43で変化があったと判断した場合、変化があったと判断される画素、または画素の集合であるブロックを抽出し、これから変化部分を切り出し複数枚の切り出し画像を作成する(S44)。
図18は、センサ515により複数の変化を検知した時に得られた画像のうち2枚を処理する場合を例に説明する図である。全周囲画像1801の中から複数の変化部分を扇型に切り出しサーバユニット52に伝送する(S45)。
サーバユニット52ではこれを矩形画像1802、1803に変換し、ビューワに伝送する。カメラユニット51から切り出した扇型画像を伝送する際には全方位に対する切り出し位置の情報も付加し、サーバユニット52ではこの位置情報に基づいて矩形画像変換を実行する。さらに、ビューワ1200への矩形画像伝送時にこの位置情報も合わせて伝送する。これらの処理を複数枚の変化検知画像のそれぞれについて順次実行する(S46)。
ビューワ1200では作成された複数枚の変化部分画像1804、1805のそれぞれと、縮小全方位画像1808とを、1806、1807に示すように解像度と位置関係を合わせて重ねて表示する(S47)
この変化部分を重ねた複数枚の画像1806、1807を時間を追って順次表示することにより、動きを含めた的確な状況判断が可能になる。この場合、順次表示はサーバユニットから切り出し画像が送られてくるタイミングに合わせて順次表示してもよいし、一連の変化検知画像をビューワ側に受信した後に順番に表示してもよい。
尚、比較用周辺画像については、起動時初期はメモリ514内の設置時に撮影された平常状態の周辺画像を比較用周辺画像とし、その後、第4の実施形態で説明したいずれかの方法により随時更新するようにしてもよい。
画像の重ね合わせについて図19を使ってさらに詳しく説明する。
図19(a)は設置時に撮影する、平常時の全方位画像を示している。カメラユニットで撮影したこの全方位画像データを、無線通信を介してサーバユニットに送る。
サーバユニットでは送られた丸型の全方位画像を、認識が容易な矩形画像図19(b)に変換する。この矩形画像はさらに、ビューワの表示器解像度に合わせて縮小処理を行い、比較用周辺画像としてビューワに伝送後蓄積される。
図19(c)は、センサ515による変化検知時の画像を示している。侵入者によりセンサが動作し、その時の全方位画像をカメラユニットが撮影する。さらにその後センサによる変化検知が継続する場合には、検知期間中カメラユニットは全方位画像を例えば1秒間隔で連写動作を継続する。
カメラユニットでは、このセンサ動作時の複数枚(n枚、図では2枚)の画像図19(c)のそれぞれと、平常時の画像図19(a)の比較により、変化部分を扇型の画像図19(d)に切り出し、複数枚(n枚)の切り出し画像を作成する。
この場合、切り出す画像の大きさは最低限の変化があった部分のみ(図5の場合は人間にあたる部分のみ)であってもよいし、周辺を含めた余裕を持った面積であっても良い。
このn枚の扇型切り出し画像図19(d)をサーバユニットに伝送し、サーバユニットにて部分画像の矩形変換処理を実行し、図5(e)に示すn枚の矩形切り出し画像にする。このn枚の矩形切り出し画像図19(e)をビューワに伝送する。
ビューワでは送られた切り出し画像を図19(f)のように表示すると、変化部分の画像のみが表示され付随する周辺画像は表示されない。
そのため表示された画像が実際の監視場所のどの位置にあるかなどの的確な判断が難しい場合が生じる。
この問題を解決するため、ビューワでは図19(g)に示すように蓄積されているn枚の比較用周辺画像のそれぞれについて大きさ、位置関係を合わせて重ねた画像(n枚)を作成する。
このn枚の重ねた画像を順次表示して、監視対象物の動きと周辺状況を合わせて監査し、的確な判断を容易にする。
この時、ビューワに蓄積されている周辺画像と、ビューワの送られた切り出し画像5(e)との解像度は一般に一致しないことがある。したがって、本実施形態においても、第5の実施形態と同様の解像度一致処理を実行し、図19(g)のような画像を得るようにしてもよい。
以上説明してきたように、本実施形態によれば、監視地の状況変化を検知時には撮影された画像の内、例えば人の侵入などの変化した部分のみを複数のコマ送り画像としてネットワークを介して表示器に送信し、事前に送信した平常時の周辺画像と重ね合わせて順番に表示することにより、個人が携帯できる小型の機器(たとえば携帯無線電話に代表される携帯通信端末)に搭載されている120X160ピクセル程度の小さな表示器においても、的確な状況判断が可能となる。
さらに、設置時に無人の平常時周辺画像をビューワに送信し表示すると供にユーザに通知することにより、確実な設置状態の完了を確認することが可能になる。
(他の実施形態)
本発明の目的は、前述した各実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
本発明に関るネットワークカメラシステムのハードウェア構成例を示す図。 無線ビューワを含むシステムのハードウェア構成例を示す図。 カメラユニットとサーバユニットの外観例を示す図。 カメラユニットとサーバユニットの外観例を示す図。 カメラユニットとサーバユニットの詳細な構成を示す図。 センサの配置と検出角度を説明するための図。 第1の実施形態におけるシステム動作を説明するためのフローチャート。 第1の実施形態の切り出し処理を説明するための図。 無線公衆網に接続可能としたカメラユニットの詳細な構成を示す図。 第2の実施形態におけるシステム動作を説明するためのフローチャート。 第2の実施形態の切り出し処理を説明するための図。 第3の実施形態のビューワの詳細な構成を示すブロック図。 第3の実施形態の切り出し処理を説明するための図。 第3の実施形態におけるシステム動作を説明するためのフローチャート。 ビューワでの画像表示を説明するための図。 第3の実施形態における画像の重ね合わせの詳細を説明する図。 第6の実施形態におけるシステム動作を説明するためのフローチャート。 第6の実施形態の切り出し処理を説明するための図。 第6の実施形態における画像の重ね合わせの詳細を説明する図。 従来のネットワークカメラシステムを説明するための図。
符号の説明
11 カメラユニット
12 サーバユニット
13 ネットワーク
14 ビューワ

Claims (20)

  1. カメラにより撮像された画像を処理する画像処理装置であって、
    カメラ周辺の状況変化を検出する検出手段と、
    前記検出手段による検出に応答して前記カメラの撮像画像を取得する取得手段と、
    前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し手段と、
    前記切り出し手段による切り出し画像を出力する出力手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記検出手段は、前記カメラ周辺の変化を検知する光、音声、温度センサ、またはそれらの組み合わせであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記カメラは、広角撮像系を持つカメラであり、前記取得手段は前記広角撮像系に基づく撮像画像を取得することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記カメラは、回転体ミラーを使用した全方位撮影カメラであり、前記取得手段は前記全方位カメラの撮像画像を取得することを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記出力手段は、ネットワーク接続機能を有する外部装置に対して、前記切り出し画像を送信する送信手段であることを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
  6. 電池による電源供給を行うための電池電源手段と、
    外部装置から電源供給を行うための外部電源手段とをさらに有し、
    前記電池電源手段と前記外部電源手段は選択的に利用可能であることを特徴とする請求項1〜5のいずれかに記載の画像処理装置。
  7. 前記出力手段は、外部装置に対して前記切り出し画像を無線送信する無線送信手段であること特徴とする請求項1〜6のいずれかに記載の画像処理装置。
  8. 前記検出手段は、それぞれに検出方向が割り当てられた複数のセンサから構成されており、
    前記切り出し手段は、前記各センサの検出方向に対応する領域の画像を切り出すことを特徴とする請求項1〜7のいずれかに記載の画像処理装置。
  9. 前記切り出し手段は、予め保持しておいた周辺画像と前記取得手段により取得した撮像画像とを比較し、前記比較の結果、変化のあったと判断した領域の撮像画像を切り出すことを特徴とする請求項1〜8のいずれかに記載の画像処理装置。
  10. 前記カメラを一体構成としていることを特徴とする請求項1〜9のいずれかに記載の画像処理装置。
  11. カメラにより撮像された画像を表示するネットワークカメラシステムであって、
    カメラ周辺の状況変化を検出する検出手段と、
    前記検出手段による検出に応答して前記カメラの撮像画像を取得する取得手段と、
    前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し手段と、
    前記切り出し手段による切り出し画像をネットワークに対して送出する送出手段と、
    前記送出手段により送出された切り出し画像を表示する表示手段と、
    を備えることを特徴とするネットワークカメラシステム。
  12. 前記送出手段は、予めカメラ周辺の周辺画像を前記表示手段に対して送出しており、前記表示手段は、前記切り出し画像を前記周辺画像に重ねて表示することを特徴とする請求項11に記載のネットワークカメラシステム。
  13. 前記送出手段は、前記表示手段の表示解像度に対応するように、前記切り出し画像に解像度変換処理を施して送出することを特徴とする請求項11または12のいずれかに記載のネットワークカメラシステム。
  14. 前記送出手段は、前記カメラの設置時に前記周辺画像の送出を実行し、前記表示手段は、前記周辺画像の蓄積が完了したことを表示することを特徴とする請求項12または13のいずれかに記載のネットワークカメラシステム。
  15. 前記送出手段は、前記周辺画像に対してデータサイズを減らすための解像度変換を行って送出し、前記表示手段は、前記周辺画像と前記切り出し画像の解像度を整合させる処理を実行し、処理後の両画像を表示することを特徴とする請求項12〜14のいずれかに記載のネットワークカメラシステム。
  16. 前記検知手段が連続して状況変化を検出した場合、前記切り出し手段は、それぞれの状況変化の領域に対応する複数の切り出し画像を生成し、前記送出手段は、前記複数の切り出し画像を送出することを特徴とする請求項12〜15のいずれかに記載のネットワークカメラシステム。
  17. 前記表示手段は、前記各切り出し画像を前記周辺画像に順次重ねて表示することを特徴とする請求項16に記載のネットワークカメラシステム。
  18. 前記カメラ、前記検出手段、及び前記取得手段を含むカメラユニットと、前記送出手段を含むカメラサーバと、前記表示手段を含むビューワと、から構成されることを特徴とする請求項11〜17のいずれかに記載のネットワークカメラシステム。
  19. カメラにより撮像された画像を処理する画像処理方法であって、
    カメラ周辺の状況変化を検出する検出工程と、
    前記検出工程における検出に応答して前記カメラの撮像画像を取得する取得工程と、
    前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出し工程と、
    前記切り出し工程における切り出し画像を出力する出力工程と、
    を備えることを特徴とする画像処理方法。
  20. カメラにより撮像された画像を処理する画像処理方法を実行するためのプログラムであって、
    カメラ周辺の状況変化を検出する検出ステップと、
    前記検出ステップにおける検出に応答して前記カメラの撮像画像を取得する取得ステップと、
    前記撮像画像のうち状況変化のあった領域の画像を切り出す切り出しステップと、
    前記切り出しステップにおける切り出し画像を出力する出力ステップと、
    を備えることを特徴とするプログラム。
JP2004238444A 2003-11-11 2004-08-18 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム Withdrawn JP2005176301A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004238444A JP2005176301A (ja) 2003-11-11 2004-08-18 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム
US10/985,191 US20050099500A1 (en) 2003-11-11 2004-11-10 Image processing apparatus, network camera system, image processing method and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003380733 2003-11-11
JP2003386481 2003-11-17
JP2003387882 2003-11-18
JP2004238444A JP2005176301A (ja) 2003-11-11 2004-08-18 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2005176301A true JP2005176301A (ja) 2005-06-30

Family

ID=34557556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004238444A Withdrawn JP2005176301A (ja) 2003-11-11 2004-08-18 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20050099500A1 (ja)
JP (1) JP2005176301A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007119712A1 (ja) * 2006-04-13 2007-10-25 Opt Corporation カメラ装置、画像処理装置および画像処理方法
US8305424B2 (en) 2007-03-09 2012-11-06 Sony Corporation System, apparatus and method for panorama image display
JP2013157906A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置、撮像装置の制御方法、撮像システムおよびプログラム
JP2014161103A (ja) * 2014-05-01 2014-09-04 Olympus Imaging Corp 撮影装置および撮影装置の制御方法
JP5967504B1 (ja) * 2015-05-18 2016-08-10 パナソニックIpマネジメント株式会社 全方位カメラシステム
JP2016529585A (ja) * 2013-06-14 2016-09-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated コンピュータビジョンアプリケーション処理

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705729B2 (en) * 2005-03-30 2010-04-27 Memsic, Inc. Surveillance system and method
US7760109B2 (en) * 2005-03-30 2010-07-20 Memsic, Inc. Interactive surveillance network and method
US8144197B2 (en) * 2005-03-30 2012-03-27 Memsic Transducer Systems Co., Ltd Adaptive surveillance network and method
US8115593B2 (en) * 2005-03-30 2012-02-14 Memsic Transducer Systems Co., Ltd. Adaptive network and method
US8189536B2 (en) * 2005-03-30 2012-05-29 Memsic Transducer System Co., Ltd. Delivery of data packets via aggregated spatial distribution overlay on a mesh network
US8238695B1 (en) * 2005-12-15 2012-08-07 Grandeye, Ltd. Data reduction techniques for processing wide-angle video
US20070254640A1 (en) * 2006-04-27 2007-11-01 Bliss Stephen J Remote control and viewfinder for mobile camera phone
JP2007311860A (ja) * 2006-05-16 2007-11-29 Opt Kk 画像処理装置、カメラ装置および画像処理方法
WO2008011512A2 (en) * 2006-07-20 2008-01-24 Marcus Blumenfeld Remotely-controlled imaging system
TW200810554A (en) * 2006-08-08 2008-02-16 Awind Inc Removable device with plug & play function
EP1944686B1 (en) 2007-01-11 2019-03-13 Barco Ltd. Removable apparatus with a plug-and-show function
US8005108B1 (en) 2007-10-31 2011-08-23 Memsic Transducer Systems Co., Ltd. Fast deployment of modules in adaptive network
US8149102B1 (en) 2008-03-27 2012-04-03 Memsic Transducer Systems Co., Ltd. Reconfigurable interface operable with multiple types of sensors and actuators
CN102598653B (zh) 2009-11-02 2015-08-05 日本电气株式会社 移动通信设备和拍摄方法
US8387103B2 (en) * 2009-12-28 2013-02-26 Gemtek Technology Co., Ltd. Video server device for closed circuit television
JP5573349B2 (ja) * 2010-05-17 2014-08-20 パナソニック株式会社 パノラマ展開画像撮影システムおよび方法
US20120050769A1 (en) * 2010-08-31 2012-03-01 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and image processing system
JP5742210B2 (ja) * 2010-12-22 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム
WO2013181509A1 (en) * 2012-06-01 2013-12-05 Petari USA, Inc. Method and system for airplane container tracking
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
RU2524576C1 (ru) * 2013-08-27 2014-07-27 Вячеслав Михайлович Смелков Способ панорамного телевизионного наблюдения и устройство для его осуществления
JP6092049B2 (ja) * 2013-08-28 2017-03-08 東芝ライフスタイル株式会社 撮像システム及び撮像装置
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
KR101386285B1 (ko) * 2014-02-07 2014-04-17 에이치씨테크(주) 영상처리보드 및 이를 이용한 영상감시장치
US20150334299A1 (en) * 2014-05-14 2015-11-19 Panasonic Intellectual Property Management Co., Ltd. Monitoring system
US9883101B1 (en) * 2014-07-23 2018-01-30 Hoyos Integrity Corporation Providing a real-time via a wireless communication channel associated with a panoramic video capture device
US10044939B2 (en) * 2014-09-19 2018-08-07 Sony Interactive Entertainment LLC Systems and methods for camera operation through control device
JP6956574B2 (ja) * 2017-09-08 2021-11-02 キヤノン株式会社 画像処理装置、プログラムおよび方法
US11153482B2 (en) * 2018-04-27 2021-10-19 Cubic Corporation Optimizing the content of a digital omnidirectional image
US11854355B2 (en) * 2021-05-18 2023-12-26 Mark Townsend Proximity alarm assembly

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356296B1 (en) * 1997-05-08 2002-03-12 Behere Corporation Method and apparatus for implementing a panoptic camera system
US6043837A (en) * 1997-05-08 2000-03-28 Be Here Corporation Method and apparatus for electronically distributing images from a panoptic camera system
US7023469B1 (en) * 1998-04-30 2006-04-04 Texas Instruments Incorporated Automatic video monitoring system which selectively saves information
US6304285B1 (en) * 1998-06-16 2001-10-16 Zheng Jason Geng Method and apparatus for omnidirectional imaging
US20010015751A1 (en) * 1998-06-16 2001-08-23 Genex Technologies, Inc. Method and apparatus for omnidirectional imaging
JP3865516B2 (ja) * 1998-10-23 2007-01-10 ソニー株式会社 全方位撮像装置
US6778211B1 (en) * 1999-04-08 2004-08-17 Ipix Corp. Method and apparatus for providing virtual processing effects for wide-angle video images
US6433683B1 (en) * 2000-02-28 2002-08-13 Carl Robinson Multipurpose wireless video alarm device and system
JP3690733B2 (ja) * 2001-02-09 2005-08-31 シャープ株式会社 撮像装置
US6856472B2 (en) * 2001-02-24 2005-02-15 Eyesee360, Inc. Panoramic mirror and system for producing enhanced panoramic images
US7940299B2 (en) * 2001-08-09 2011-05-10 Technest Holdings, Inc. Method and apparatus for an omni-directional video surveillance system
US7123777B2 (en) * 2001-09-27 2006-10-17 Eyesee360, Inc. System and method for panoramic imaging
US7058239B2 (en) * 2001-10-29 2006-06-06 Eyesee360, Inc. System and method for panoramic imaging
JP3979522B2 (ja) * 2002-02-21 2007-09-19 シャープ株式会社 カメラ装置及び監視システム
US20040212678A1 (en) * 2003-04-25 2004-10-28 Cooper Peter David Low power motion detection system
US7399095B2 (en) * 2003-07-09 2008-07-15 Eyesee360, Inc. Apparatus for mounting a panoramic mirror

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007119712A1 (ja) * 2006-04-13 2007-10-25 Opt Corporation カメラ装置、画像処理装置および画像処理方法
JP2007288354A (ja) * 2006-04-13 2007-11-01 Opt Kk カメラ装置、画像処理装置および画像処理方法
US8305424B2 (en) 2007-03-09 2012-11-06 Sony Corporation System, apparatus and method for panorama image display
JP2013157906A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置、撮像装置の制御方法、撮像システムおよびプログラム
JP2016529585A (ja) * 2013-06-14 2016-09-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated コンピュータビジョンアプリケーション処理
US10091419B2 (en) 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US10694106B2 (en) 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
JP2014161103A (ja) * 2014-05-01 2014-09-04 Olympus Imaging Corp 撮影装置および撮影装置の制御方法
JP5967504B1 (ja) * 2015-05-18 2016-08-10 パナソニックIpマネジメント株式会社 全方位カメラシステム
JP2016219956A (ja) * 2015-05-18 2016-12-22 パナソニックIpマネジメント株式会社 全方位カメラシステム

Also Published As

Publication number Publication date
US20050099500A1 (en) 2005-05-12

Similar Documents

Publication Publication Date Title
JP2005176301A (ja) 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム
KR100869952B1 (ko) 파노라마 사진 촬영 방법 및 장치
CN106716989B (zh) 摄像装置、摄像方法及程序
US8817134B2 (en) Imaging control device, subject detection method, and program
US20030070177A1 (en) Computer program product for TV telephone system
US20040179100A1 (en) Imaging device and a monitoring system
US20150208032A1 (en) Content data capture, display and manipulation system
JPWO2004066632A1 (ja) 遠隔映像表示方法、映像取得装置及びその方法とそのプログラム
JP6380787B2 (ja) 撮像装置、カメラ、表示装置、撮像方法、表示方法、及びプログラム
JP5838852B2 (ja) 撮像システム、撮像装置、撮像方法及びプログラム
JP6029292B2 (ja) 通信機器、通信方法およびプログラム
KR101839456B1 (ko) 사물 인터넷 기반의 실외형 자가촬영사진지원 카메라 시스템
JP3804766B2 (ja) 画像通信装置および携帯型電話機
JP2006222841A (ja) 監視カメラシステム
KR101393147B1 (ko) 이동단말기 및 그 촬영방법
JP2005277698A (ja) 監視カメラおよび監視方法
WO2016125351A1 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JP2006345386A (ja) 監視カメラの撮影範囲の表示装置
JP2004282163A (ja) カメラ、監視画像生成方法、プログラム、監視システム
KR101193129B1 (ko) 다자 동시 제어를 허용하는 실시간 원격 360도 전방향 영상 감시 시스템
JP2005318445A (ja) 遠隔見守りシステムの宅内装置
JP2009055080A (ja) 撮像装置、撮像方法
CN112788229A (zh) 基于物联网的室内型自拍支援摄像头***
KR20140075963A (ko) 이동 단말을 이용한 카메라 원격 제어 장치 및 방법
KR101372862B1 (ko) 감시 사각지대에서 동작 가능한 스마트 방범 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061205

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091202