JP5942270B2 - 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム - Google Patents

撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム Download PDF

Info

Publication number
JP5942270B2
JP5942270B2 JP2012552679A JP2012552679A JP5942270B2 JP 5942270 B2 JP5942270 B2 JP 5942270B2 JP 2012552679 A JP2012552679 A JP 2012552679A JP 2012552679 A JP2012552679 A JP 2012552679A JP 5942270 B2 JP5942270 B2 JP 5942270B2
Authority
JP
Japan
Prior art keywords
image
camera
cameras
unit
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012552679A
Other languages
English (en)
Other versions
JPWO2012096166A1 (ja
Inventor
藤松 健
健 藤松
藤井 博文
博文 藤井
隆行 松川
隆行 松川
横光 澄男
澄男 横光
偉志 渡邊
偉志 渡邊
裕一 松本
裕一 松本
克則 藁谷
克則 藁谷
三輪 道雄
道雄 三輪
杉浦 雅貴
雅貴 杉浦
森岡 幹夫
幹夫 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2012096166A1 publication Critical patent/JPWO2012096166A1/ja
Application granted granted Critical
Publication of JP5942270B2 publication Critical patent/JP5942270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

関連する出願
本出願では、2011年1月11日に日本国に出願された特許出願番号2011−002745の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。
本発明は、複数のカメラを用いて撮影を行なう撮影システム及びその複数のカメラを制御するカメラ制御装置に関し、特に、複数のカメラが、撮影範囲が互いに重複する全周囲カメラである撮影システム及びカメラ制御装置に関する。
従来より、監視システムとして用いられる撮影システムでは、複数のカメラが監視対象場所の高所に設けられ、それらの複数のカメラがカメラ制御装置に接続される。複数のカメラで撮影された画像はカメラ制御装置に送信される。カメラ制御装置にはモニタが備えられ、モニタにはカメラで撮影された画像が表示される。このような監視システムにおいて、複数のカメラが、その撮影範囲が重複するように設置されることがある。この場合に、カメラ制御装置では、複数のカメラが撮影した画像の中から表示に最適な画像を選んで表示することができる。
特許文献1には、上述のような撮影システムが開示されている。特許文献1では、カメラ制御装置が、それに接続されている複数のカメラから画像を取得し、複数のカメラの画像うちの、人物がより正面を向いている画像を撮影しているカメラを選択する。そして、選択した画像を拡大表示したり、また選択されたカメラが人物を撮影できるようにその撮影方向を制御する信号を選択されたカメラに送信したりする。
一方、監視カメラとして、魚眼レンズを用いて全周囲画像を撮影する全周囲カメラが用いられる。全周囲カメラでは、魚眼レンズを用いているため、円形又はドーナツ状の画像が得られるとともに、撮影画像には歪が生じているので、撮影画像を表示する際には、所定の範囲が切り出されて、歪み補正がされた上で、平面画像として表示される。全周囲カメラは、水平画角が360度であり、垂直画角が約180度であり、広い範囲を撮影できるので、監視カメラとして用いられることが多い。
特開2005−142683号公報
しかしながら、特許文献1の撮影システムでは、複数のカメラのいずれもが常に画像をカメラ制御装置に送信しているので、複数のカメラからカメラ制御装置に送信されるデータ量が大きくなり、ネットワークに負担がかかる。
また、特許文献1の撮影システムでは、複数のカメラとして、通常のレンズを用いたカメラが使用されている。一方、監視カメラとして、上述のように、魚眼レンズを用いて全周囲画像を撮影する全周囲カメラが用いられることがあり、その場合には、全周囲カメラは、監視対象場所の高所に下向きに設置される。
このような全周囲カメラを特許文献1の撮影システムに適用すると、上記の全周囲カメラの特性から、以下の問題が生じる。まず、全周囲カメラで撮影された画像には、上述のように歪みが生じており、かつ、その歪みは画像の中心から離れるほど(被写体からカメラまでの水平方向の距離が遠いほど)大きくなっている。従って、監視対象である人物がカメラに対して正面を向いているという基準のみで画像を選択すると、必ずしも最適な画像は選択できない。
また、全周囲カメラが監視対象場所の高所に下向きに設置されている場合には、監視対象である人物が全周囲カメラに対して水平方向で正面を向いているとしても、その人物が全周囲カメラの下にいれば、その人物の頭頂部が撮影されることになり、そのような画像では人物の認識することは困難である。従って、この点でも、監視対象である人物が正面を向いているという基準のみで画像を選択すると、必ずしも最適な画像は選択できない。
本発明は、上記の問題に鑑みてなされたものであり、カメラ制御装置とそれに接続された複数のカメラとを含む撮影システムにおいて、複数のカメラとカメラ制御装置との間の通信トラフィックを軽減できる撮影システムを提供することを目的とする。また、本発明は、上記の撮影システムにおいて、複数のカメラから適切なカメラを選択できる撮影システムを提供することを目的とする。
上記従来の課題を解決するために、本発明の撮影システムは、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含んでおり、複数のカメラの各々は、撮影により画像を生成する画像生成部と、画像生成部にて生成された画像から移動体を検出し、移動体の位置の情報をカメラ制御装置に送信する移動体検出部と、カメラ制御装置によって選択されたときに、移動体を含む画像を送信する画像送信部とを備えた構成を有しており、カメラ制御装置は、複数のカメラの各々からそれぞれ送信された位置の情報に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知部と、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部とを備えた構成を有している。
本発明の別の態様の撮影システムは、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含む撮影システムであって、複数のカメラの各々は、撮影により画像を生成する画像生成部と、画像生成部にて生成された画像をカメラ制御装置に送信する画像送信部とを備え、カメラ制御装置は、カメラから送信された画像を入力する画像入力部と、画像入力部にて入力した画像に基づいて、当該画像中の移動体の認識処理を行う画像認識部とを備え、撮影システムは、さらに、画像生成部にて生成された画像から移動体を検出する検出部と、カメラに対する移動体の向きに関する角度評価値に基づいて、複数のカメラのうちの何れのカメラの画像を画像認識部における認識処理の対象とするかを判断する判断部とを備えた構成を有している。
本発明の別の態様は、複数のカメラに接続されて複数のカメラを制御するカメラ制御装置であって、このカメラ制御装置は、複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知部と、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部とを備えた構成を有している。
本発明のさらに別の態様は、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含む撮影システムにおける撮影方法であって、この撮影方法は、複数のカメラの各々にて、撮影により画像を生成する画像生成ステップと、複数のカメラの各々にて、画像生成ステップにて生成された画像から移動体を検出する移動体検出ステップと、複数のカメラの各々から、移動体の位置の情報をカメラ制御装置に送信する位置情報送信ステップと、カメラ制御装置にて、複数のカメラの各々からそれぞれ送信された位置情報に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、画像配信カメラ選択ステップにおける選択結果をカメラに通知する画像配信カメラ通知ステップと、画像配信カメラ選択ステップにて選択されたカメラから、移動体を含む画像をカメラ制御装置に送信する画像送信ステップと、カメラ制御装置にて、画像送信ステップにて送信された画像を入力する画像入力ステップとを含んでいる。
本発明のさらに別の態様は、複数のカメラに接続されて複数のカメラを制御するカメラ制御装置におけるカメラ制御方法であって、このカメラ制御方法は、複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知ステップと、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力ステップとを含んでいる。
また、本発明のさらに別の態様は、上記のカメラ制御方法をコンピュータに実行させるためのコンピュータプログラムである。
本発明は、画像配信カメラを選択するために、複数のカメラからは移動体の位置の情報を送信して、各カメラは画像配信カメラとして選択されたときにカメラ制御装置に画像を送信するので、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減できる。
以下に説明するように、本発明には他の態様が存在する。したがって、この発明の開示は、本発明の一部の提供を意図しており、ここで記述され請求される発明の範囲を制限することは意図していない。
図1は、本発明の実施の形態における撮影システムの構成を示すブロック図 図2は、本発明の実施の形態における撮影システムの構成図 図3(a)は、本発明の実施の形態におけるカメラから人の頭部までの距離d及びカメラに対するチルト方向の顔の向きαを説明する図 図3(b)は、本発明の実施の形態におけるカメラに対する水平方向の顔の向きβを説明する図 図4は、本発明の実施の形態におけるカメラから人の頭部までの距離dと評価値f1との関係を示す図 図5は、本発明の実施の形態におけるカメラに対するチルト方向の顔の向きαと評価値f2との関係を示す図 図6は、本発明の実施の形態におけるカメラに対する水平方向の顔の向きβと評価値f3との関係を示す図 図7は、本発明の実施の形態の実施例1におけるカメラの配置と人の動きを示す図 図8は、本発明の実施の形態の実施例1における各カメラA〜Dの全周囲画像中の人Mの位置及び時刻1〜5のそれぞれの時刻における各カメラA〜Dの評価値f1〜f3を示す図 図9は、比較例との比較において本発明の実施の形態における実施例1を説明するための図 図10は、本発明の実施の形態の実施例2におけるカメラの配置と人の動きを示す図 図11は、比較例との比較において本発明の実施の形態における実施例2を説明するための図 図12は、本発明の実施の形態における撮影方法のフロー図 図13は、本発明の実施の形態におけるカメラに対するチルト方向の顔の向きαと評価値f12との関係を示す図 図14は、本発明の実施の形態におけるカメラに対する水平方向の顔の向きγと評価値f4との関係を示す図 図15は、本発明の実施の形態の変形例におけるカメラの配置と人の動き及び水平方向の顔の向きを示す図 図16は、比較例との比較において本発明の実施の形態の変形例を説明するための図
以下に、本発明の詳細な説明を述べる。以下に説明する実施の形態は本発明の単なる例であり、本発明は様々な態様に変形することができる。従って、以下に開示する特定の構成および機能は、特許請求の範囲を限定するものではない。
本発明の実施の形態の撮影システムは、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含んでおり、複数のカメラの各々は、撮影により画像を生成する画像生成部と、画像生成部にて生成された画像から移動体を検出し、移動体の位置の情報をカメラ制御装置に送信する移動体検出部と、カメラ制御装置によって選択されたときに、移動体を含む画像を送信する画像送信部とを備えた構成を有しており、カメラ制御装置は、複数のカメラの各々からそれぞれ送信された位置の情報に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知部と、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部とを備えた構成を有している。
この構成により、画像配信カメラを選択するために、複数のカメラからは移動体の位置の情報を送信して、各カメラは画像配信カメラとして選択されたときにカメラ制御装置に画像を送信するので、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減できる。
上記の撮影システムにおいて、複数のカメラは、撮影対象場所の高所に、下向きに、互いの撮影範囲が少なくとも一部において重複するように設置されてよく、画像生成部は、魚眼レンズを用いた撮影により、全周囲画像を生成してよく、画像配信カメラ選択部は、複数のカメラの各々の移動体検出部にてそれぞれ検出された各移動体の位置に基づいて、カメラと移動体との位置関係に関する位置関係評価値と、カメラに対する移動体の向きに関する角度評価値とを求め、位置関係評価値及び角度評価値に基づいて、画像配信カメラの選択を行ってよい。
この構成により、カメラに対する移動体の向き(移動体が正面を向いているか否か)だけでなく、さらにカメラと移動体との位置関係を含む複数の要因を総合的に考慮して画像配信カメラを選択するので、複数のカメラから目的に応じた適切なカメラを画像配信カメラとして選択できる。
上記の撮影システムにおいて、画像送信部は、画像生成部にて生成された画像中の移動体を含む一部領域の画像を送信してよい。
この構成により、複数のカメラとカメラ制御装置との間の通信のデータ量をより軽減できる。
上記の撮影システムにおいて、カメラ制御装置は、さらに、画像入力部にて入力した画像に基づいて、移動体の認識処理を行う画像認識部を備えていてよく、画像配信カメラ選択部は、複数のカメラのうちの、画像認識部における認識処理に適したカメラを画像配信カメラとして選択してよい。
この構成により、複数のカメラで撮影された画像のうち、認識処理に適した画像で移動体の認識処理を行うことができるので、認識精度を向上できる。
また、本発明の実施の形態の撮影システムは、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含む撮影システムであって、複数のカメラの各々は、撮影により画像を生成する画像生成部と、画像生成部にて生成された画像をカメラ制御装置に送信する画像送信部とを備え、カメラ制御装置は、カメラから送信された画像を入力する画像入力部と、画像入力部にて入力した画像に基づいて、当該画像中の移動体の認識処理を行う画像認識部とを備え、撮影システムは、さらに、画像生成部にて生成された画像から移動体を検出する検出部と、カメラに対する移動体の向きに関する角度評価値に基づいて、複数のカメラのうちの何れのカメラの画像を画像認識部における認識処理の対象とするかを判断する判断部とを備えている。
この構成により、移動体が所望の角度で写っている画像に対して認識処理を行なうことができ、移動体の認識精度が向上する。
また、上記の撮影システムにおいて、判断部は、移動体の移動方向に基づいて角度評価値を算出してよい。
この構成により、移動体の移動方向を、移動体の向きとすることができる。
また、上記の撮影システムにおいて、判断部は、画像生成部にて生成された画像に対する認識処理によって角度評価値を算出してよい。
この構成により、各カメラの画像に対する認識処理によって、移動体が所望の角度で写っている画像を判断できる。
本発明の別の態様は、複数のカメラに接続されて複数のカメラを制御するカメラ制御装置であって、このカメラ制御装置は、複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知部と、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部とを備えた構成を有している。
この構成により、画像配信カメラを選択するために、複数のカメラからは移動体の位置の情報を送信して、各カメラは画像配信カメラとして選択されたときにカメラ制御装置に画像を送信するので、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減できる。
本発明のさらに別の態様は、カメラ制御装置とカメラ制御装置に接続された複数のカメラを含む撮影システムにおける撮影方法であって、この撮影方法は、複数のカメラの各々にて、撮影により画像を生成する画像生成ステップと、複数のカメラの各々にて、画像生成ステップにて生成された画像から移動体を検出する移動体検出ステップと、複数のカメラの各々から、移動体の位置の情報をカメラ制御装置に送信する位置情報送信ステップと、カメラ制御装置にて、複数のカメラの各々からそれぞれ送信された位置情報に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、画像配信カメラ選択ステップにおける選択結果をカメラに通知する画像配信カメラ通知ステップと、画像配信カメラ選択ステップにて選択されたカメラから、移動体を含む画像をカメラ制御装置に送信する画像送信ステップと、カメラ制御装置にて、画像送信ステップにて送信された画像を入力する画像入力ステップとを含んでいる。
この構成により、画像配信カメラを選択するために、複数のカメラからは移動体の位置の情報を送信して、各カメラは画像配信カメラとして選択されたときにカメラ制御装置に画像を送信するので、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減できる。
本発明のさらに別の態様は、複数のカメラに接続されて複数のカメラを制御するカメラ制御装置におけるカメラ制御方法であって、このカメラ制御方法は、複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、画像配信カメラ選択部における選択結果をカメラに通知する画像配信カメラ通知ステップと、画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力ステップとを含んでいる。
この構成により、画像配信カメラを選択するために、複数のカメラからは移動体の位置の情報を送信して、各カメラは画像配信カメラとして選択されたときにカメラ制御装置に画像を送信するので、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減できる。
また、本発明のさらに別の態様は、上記のカメラ制御方法をコンピュータに実行させるためのコンピュータプログラムである。
以下、本発明を実施するための形態について、図面を参照しながら説明する。
図1は、本発明の実施の形態における撮影システムの構成を示すブロックである。図2は、本発明の実施の形態における撮影システムの構成図である。まず、図2を参照して、本発明の実施の形態における撮影システムの概要を説明する。以下では、本発明の撮影システムが監視システムとして応用される例を説明するが、本発明の撮影システムは、監視システムに限られない。
図2に示すように、本実施の形態の撮影システム1は、サーバ200と複数のカメラ100とが接続されて構成される。サーバ200は、本発明のカメラ制御装置に相当する。複数のカメラ100は、それぞれ監視対象場所の高所に、下向きに設置される。複数のカメラ100は撮影範囲が互いに少なくとも一部で重複している。カメラ100は魚眼レンズを採用した全周囲カメラであり、水平画角は360度であり、垂直画角は約180度である。
カメラ100は、図2において各カメラ100の下に示すように、撮影により円形の全周囲画像を生成する。この全周囲画像は、円形の外側に行くほど歪が大きくなっている画像である。各カメラ100は、撮影をして全周囲画像を生成すると、全周囲画像の中から移動体を検出し、検出した移動体の全周囲画像における位置の情報をサーバ200に送信する(ステップS1)。サーバ200は、各カメラ100から全周囲画像中の移動体の位置の情報を取得して、画像を配信すべきカメラ(以下、「画像配信カメラ」という。)を選択し、その選択結果をカメラ100に通知する(ステップS2)。
選択されたカメラ100は、全周囲画像中の検出した移動体を含む領域を切り出して(以下、切り出された画像を「切出し画像」という。)、サーバ200に送信する(ステップS3)。サーバ200は、切出し画像の歪みを補正して、平面画像を生成し、平面画像を表示したり、平面画像を用いて画像処理(人物認証)を行なったりする。
次に、図1を参照して、本実施の形態の撮影システム1を構成するカメラ100及びサーバ200の構成を詳細に説明する。図2で説明したように、撮影システム1において、サーバ200には複数のカメラ100が接続されるが、図1では、そのうちの1つのカメラ100を代表して示してある。
カメラ100は、全周囲画像生成部101、移動体検出部102、切出し画像生成部103、及び画像送信部104を備えている。サーバ200は、移動***置入力部201、グローバル座標変換部202、カメラ位置記憶部203、移動***置記憶部204、移動体対応付け部205、選択評価値算出部206、及び画像配信カメラ選択部207を備え、これらの構成により画像配信カメラを選択する。また、サーバ200は、画像配信カメラ通知部208、画像入力部209、歪み補正部210、画像認識部211、及び認識結果出力部212を備えている。
まず、カメラ100の構成を説明する。全周囲画像生成部101は、魚眼レンズ、撮像素子、信号処理回路等を備えており、撮影を行なうことにより全周囲画像を生成する。全周囲画像生成部101は、所定のフレームレートで撮影を行なって全周囲画像を生成する。生成された全周囲画像は、移動体検出部102及び切出し画像生成部103に出力される。
移動体検出部102は、全周囲画像生成部101から全周囲画像を取得して、その中から移動体を検出する。このために、移動体検出部102は、全周囲画像生成部101から全周囲画像が入力されると、次のフレームまでそれを保存しておく。従って、移動体検出部102には、1つ前のフレームの全周囲画像が保存されている。移動体検出部102は、1つ前のフレームの全周囲画像と現フレームの全周囲画像との差分をとり、差分が所定の閾値以上になる箇所を移動体として検出する。
移動体検出部102は、移動体を検出すると、全周囲画像において移動体が存在する位置の情報を出力する。移動体検出部102は、複数の移動体を検出した場合は、複数の位置の情報を出力する。移動体の全周囲画像における位置は、全周囲画像の中心からの方位θ及び全周囲画像の中心からの距離rで定義できるので、移動体の位置の情報は、方位θ及び距離rの情報を含む。移動体の位置の情報は、さらにカメラを特定する情報、及びフレームを特定する情報を含む。
切出し画像生成部103は、サーバ200から画像配信カメラに選択された旨の通知を受けると、そのフレームについて、全周囲画像から移動体を含む所定の領域を切出し領域として、切出し画像を生成する。画像送信部104は、切出し画像生成部103にて生成された切出し画像をサーバ200に送信する。切出し画像生成部103は、移動体検出部102が検出した移動体の位置情報を用いて切り出し領域を求める。なお、複数の移動体が検出されている場合には、サーバ200が切り出すべき位置の情報を指定してよい。
次に、サーバ200の構成を説明する。移動***置入力部201は、カメラ100の移動体検出部102から送信された移動体の位置の情報を入力する。移動***置入力部201は、サーバ200に接続されている複数のカメラ100の各々から移動体の位置の情報を入力する。移動***置入力部201に入力された移動体の位置の情報は、グローバル座標変換部202に出力される。
グローバル座標変換部202は、複数のカメラ100から送信されてきた移動体の位置の情報に基づいて、移動体の位置をグローバル座標に変換する。このために、カメラ位置記憶部203には、複数のカメラ100のそれぞれの位置の情報が記憶されている。グローバル座標変換部202は、各カメラ100から取得した移動体の位置の情報と、カメラ位置記憶部203に記憶された該当するカメラ100の位置の情報とを組み合わせることにより、移動体のグローバル座標における位置を算出する。
算出された移動体のグローバル座標における位置は、移動体対応付け部205に出力されるとともに、移動***置記憶部204に記憶される。移動***置記憶部204は、移動体のグローバル座標における位置情報をカメラごと、かつフレームごとに記憶する。
移動体対応付け部205は、同一のフレームについて、複数のカメラ100の各々で検出された移動体のグローバル座標における位置を互いに比較することで、複数のカメラ100の各々で検出された移動体が同一の移動体であるか否かを判断する。移動体対応付け部205は、グローバル座標において所定の誤差距離内にある移動体を同一の移動体であると判断する。移動体対応付け部205は、同一の移動体のグローバル座標を互いに関連付けて、選択評価値算出部206に出力する。
例えば、4つのカメラ100がサーバ200に接続されている場合において、そのうちの3つのカメラの全周囲画像から検出された移動体が同一の移動体であると判断され、残り1つのカメラの全周囲画像から検出された移動体は、それとは同一ではないと判断されたときは、移動体対応付け部205は、当該3つのカメラの全周囲画像から検出された移動体を関連付けて、選択評価値算出部206に出力する。また、例えば、カメラ100から1つの全周囲画像につき複数の移動体の位置の情報が入力された場合には、移動体対応付け部205は、各移動体について対応付けを行なう。
選択評価値算出部206は、画像配信カメラを選択するための評価値(以下、「選択評価値」という。)を算出する。選択評価値yは、移動体が一定の身長を有する人であって、その正面方向に移動しているものと仮定して、算出される。選択評価値yは、カメラから人の頭部までの距離dの評価値f1と、カメラに対するチルト方向の顔の向き(角度)αの評価値f2と、カメラに対する水平方向(パン方向)の顔の向き(角度)βの評価値f3とに基づいて求められる。具体的には、選択評価値yは、下式(1)により求められる。
y=f1(d)×f2(α)×f3(β) ……(1)
図3(a)は、カメラから人の頭部までの距離d及びカメラに対するチルト方向の顔の向きαを説明する図であり、図3(b)は、カメラに対する水平方向の顔の向きβを説明する図である。図3(a)に示すように、カメラの設置された位置の高さをhsとし、人の頭部の高さをh0とすると、h=hs−h0であり、下式(2)が成り立つ。
cosα=d/h ……(2)
カメラに対するチルト方向の顔の向きαは、移動***置記憶部204から入力した全周囲画像の中心から移動体までの距離rから求めることができる。即ち、距離rが大きくなるほど、カメラに対するチルト方向の顔の向きαは大きくなる。選択評価値算出部206には、距離rと角度αとの対応関係を規定したテーブルを有しており、このテーブルを参照することにより、距離rから角度αを求める。
選択評価値算出部206は、移動体対応付け部205から入力したグローバル座標における移動体の位置の情報を用いて、カメラに対するチルト方向の顔の向きαを求めてもよい。この場合、図3(a)に示すように、グローバル座標における移動体の位置の情報から、カメラから移動体までの水平距離lが求まり、カメラに対するチルト方向の顔の向きαは、下式(3)によって求めることができる。
α=arctan(l/h) ……(3)
選択評価値算出部206は、上記のようにして求めた向きαを用いて、式(2)よりカメラから人の頭部までの距離dを求めることができる。選択評価値算出部206は、向きαに対応する距離dを規定したテーブルを有し、このテーブルを参照することで距離dを求めてもよい。選択評価値算出部206は、また、グローバル座標における移動体の位置の情報を用いて、カメラから人の頭部までの距離dを求めてもよい。この場合は、図3(a)から明らかなように、下式(4)により、カメラから人の頭部までの距離dを求めることができる。
d=(l2+h2)1/2 ……(4)
選択評価値算出部206は、移動体対応付け部205から出力された移動体のグローバル座標mt及び移動***置記憶部204から読み出した1つ前のフレームの移動体のグローバル座標mt-1に基づいて、図3(b)に示すように、1つ前のフレームから現フレームにかけて移動体が進んだ方向を求める。この方向は、移動体である人の顔の正面方向であるとみなされる。選択評価値算出部206は、移動体の移動方向と移動体からカメラに向かう方向とがなす角度βを求める。角度βは、カメラに対する水平方向の顔の向きを示す。
選択評価値算出部206は、上記のようにしてカメラから人の頭部までの距離d、カメラに対するチルト方向の顔の向きα、及びカメラに対する水平方向の顔の向きβを求めると、これらの値に基づいてそれぞれ評価値f1、f2、f3を求める。
図4は、カメラから人の頭部までの距離dと評価値f1との関係を示す図である。距離dと評価値f1とは、距離dが大きくなるほど評価値f1は下がる関係にある。これは、距離dが大きくなるほど、歪が大きく、かつ全周囲画像に写る被写体の大きさも小さくなるからである。図4の例では、距離dが遠くなるにつれて線形的に評価値f1が小さくなっているが、これに限られず、距離dが遠くなるにつれてn次関数的に、又は指数関数的に評価値f1が小さくなるようにしてもよい。
図5は、カメラに対するチルト方向の顔の向きαと評価値f2との関係を示す図である。角度αと評価値f2とは、角度αが0度のときは、評価値f2はゼロであり、0度から所定の角度(図5の例では、30度)になるまでは、角度αが大きくなるほど評価値f2は大きくなり、それより大きい角度では評価値f2は一定となるという関係にある。
角度αが0度の場合とは、移動体である人がカメラの直下にいる状況であり(図3(a)参照)、この状態では、人の顔が全周囲画像に全く写らず、人の頭頂部しか写らない。これは、カメラ100が、移動体である人の身長よりも高い箇所に設置されているからである。よって、このような状況では評価値f2はゼロとなっている。人とカメラとの水平位置が大きくなってくると、全周囲画像に人の顔が写されるようになるので、評価値f2は徐々に大きくなっていく。
カメラに対するチルト方向の顔の向きαが30度程度になれば、人物を認識できる程度に人の顔が全周囲画像に写り込むので、そのときの評価値f2を上限として、それ以上の角度αに対しては、評価値f2としてその上限値を与える。
図6は、カメラに対する水平方向の顔の向きβと評価値f3との関係を示す図である。角度βが−90度以下又は90度以上であるときは、評価値f3はゼロであり、−90度から0度に近づくにつれて評価値f3は大きくなり、0度をピークとして、0度から90度にかけて評価値f3は小さくなる。
角度βが0度である場合は、人の顔がカメラに対して水平方向に正面を向いている状態であり、よって評価値f3を高くする。角度βが−90度及び90度の場合は、全周囲画像において人の顔が真横に写されている状態であり、角度βが−90度以下および90度以上になると人物の頭部を斜め後方又は後方から撮影することになる。よって、角度βが−90度以下および90度以上のときは、評価値f3はゼロになる。なお、図6の例では、−90度から90度までの間でf3が線形的に増加及び減少しているが、これに限らず、n次関数的に、又は指数関数的に増加及び減少してもよい。
選択評価値yは、f1とf2とf3の積によって求められる。f1、f2、f3のそれぞれの最大値は、1とすることができる。このとき、選択評価値yの最大値も1になる。また、f1、f2、f3のそれぞれの最大値を異なる値とすることができる。ある評価値に対して他の評価値よりも大きな最大値を与えることで、その評価値を他の評価値よりも重視(重み付け)することができる。
画像配信カメラ選択部207は、同一の移動体に対してそれぞれのカメラの選択評価値yを計算し、選択評価値yが最も大きいカメラを画像配信カメラとして選択する。画像配信カメラ選択部207は、全周囲画像に複数の移動体が写りこんでいる場合は、移動体対応付け部205にて特定された移動体ごとに画像配信カメラを選択する。
画像配信カメラ選択部207は、画像配信カメラを選択すると、その選択結果を画像配信カメラ通知部208に出力する。画像配信カメラ207は、サーバ200に接続されている複数のカメラ100に対して、選択された画像配信カメラを特定する情報を送信する。なお、画像配信カメラ通知部208は、選択されたカメラ100にのみ切出し画像を要求する通知をしてもよい。
画像配信カメラ通知部208の通知に従ってカメラ100から切出し画像が送られてくると、サーバ200は、画像入力部209でこれを受信する。歪み補正部210は、切出し画像の歪みを補正して平面画像を生成する。歪が補正された平面画像は、通常のレンズで撮影したような画像となる。画像認識部211は、この平面画像を用いて画像認識を行い、平面画像に映っている人物の顔を認識し、解析して、人物を認証する。画像認識部211は、図示しないデータベースに登録された人物の顔と認識された顔とを照合することにより、切出し画像に写っている人物が登録された者であるか否かを判断してよい。
認証結果出力部212は、画像認識部211による画像認識の結果を出力する。認証結果出力部212は、警報装置に接続されてよい。この場合には、認識結果出力部212が、認識された人物の顔がデータベースに登録されたものではないとの認識結果を出力した時に、警報装置が作動してよい。なお、サーバ200は、さらにモニタを備えてよい。この場合には、歪み補正部210にて生成された平面画像や画像認識の結果をモニタに表示することができる。
以下、上記の撮影システム1を用いて実際に撮影を行なった実施例を説明する。
(実施例1)
図7は、実施例1におけるカメラの配置と人の動きを示す図である。図8及び図9を参照して、図7のように配置された4つのカメラA〜Dに対して、人Mが図7のように移動した場合の画像配信カメラの選択について説明する。図7〜9における番号1〜5は、人Mが移動した際の各時刻における位置を示している。カメラA〜Dは、正方形の角に配置されている。
図8は、実施例1における各カメラA〜Dの全周囲画像中の人Mの位置(最下段)、及び時刻1〜5のそれぞれの時刻における各カメラA〜Dの評価値f1〜f3(第1〜5段)を示す図である。時刻1においては、カメラAの評価値y(=f1×f2×f3)が最も大きくなるため、カメラAが画像配信カメラとして選択される。同様に、時刻2〜5では、それぞれカメラB、カメラB、カメラD、カメラDが画像配信カメラとして選択される。
図9は、比較例との比較において実施例1を説明するための図である。図9では、図7の例において、カメラから人の頭部までの距離dのみに基づいて画像配信カメラを選択した場合(比較例1)、及びカメラに対する水平方向の顔の向きβのみに基づいて画像配信カメラを選択した場合(比較例2)を、図8で説明した実施例1と比較している。
図8の第1〜5段の左列のf1−dのグラフを参照すると、カメラから人の頭部までの距離dに基づく評価値f1が最も高いのは、時刻1〜5のそれぞれの時刻において、カメラA、カメラA、カメラA、カメラB、カメラDである。図9から明らかなように、比較例1では、時刻2では、人Mの頭頂部が写っており、顔が写っていないため、この人物を認証することができない。また、時刻3では、人Mの背面が写っており、顔が写っていないため、やはりこの人物を認証することができない。
図8の第1〜5段の右列のf3−βのグラフを参照すると、カメラに対する水平方向の顔の向きβに基づく評価値f3が最も高いのは、時刻1〜5のすべての時刻において、カメラDである。しかしながら、時刻1や時刻2では、距離が遠いため、全周囲画像に写っている人物の顔はきわめて小さく、これを拡大しても非常に粗い画像になってしまい、この人物を認証することができない。
これに対して、実施例1では、各時刻において、顔の画像に基づいて人物の認証をするのに最適な画像を提供できるカメラを選択できる。これにより、各時刻において、人物の認証を行なうことができる。
(実施例2)
図10は、実施例2におけるカメラの配置と人の動きを示す図である。図11を参照して、図10のように配置された4つのカメラA〜Dに対して、人Mが図10のように移動した場合の画像配信カメラの選択について説明する。図10及び図11における番号1〜5は、人Mが移動した際の各時刻における位置を示している。カメラA〜Dは、正方形の角に配置されている。
図11の上段を参照すると、カメラから人の頭部までの距離dに基づく評価値f1が最も高いのは、時刻1〜5のそれぞれの時刻において、カメラB、カメラA、カメラA、カメラB、カメラCであり、それぞれの時刻において上記それぞれのカメラが画像配信カメラとして選択される。
図11から明らかなように、比較例3では、時刻1及び時刻4では、それぞれカメラB及びカメラAが選択されるが、それらの全周囲画像には人Mの斜め後ろの姿が写っており、顔が殆ど写っていないため、この人物を認証することができない。また、時刻2では、人Mの頭頂部が写っており、顔が写っていないため、やはりこの人物を認証することができない。
図11の中段を参照すると、カメラに対する水平方向の顔の向きβに基づく評価値f3が最も高いのは、時刻1〜5のそれぞれの時刻において、カメラA、カメラC、カメラC、カメラC、カメラCであり、それぞれの時刻において上記それぞれのカメラが画像配信カメラとして選択される。時刻2では、カメラCが選択されているが、カメラCから人Mまでの距離が遠いため、全周囲画像に写っている人物の顔はきわめて小さく、これを拡大しても非常に粗い画像になってしまい、この人物を認証することができない。
これに対して、実施例1では、各時刻において、顔の画像に基づいて人物の認証をするのに最適な画像を提供できるカメラを選択できる。これにより、各時刻において、人物の認証を行なうことができる。
次に、本発明の実施の形態の撮影方法を説明する。図12は、本発明の実施の形態における撮影方法のフロー図である。この撮影方法は、上記の撮影システム1にて実行される。まず、サーバ200に接続された複数のカメラ100の各々は、全周囲画像取得部101にて撮影を行なって全周囲画像を生成する(ステップS11)。各カメラは、移動体検出部102において、生成した全周囲画像から移動体を検出する(ステップS12)。移動体検出部102は、検出された移動体の全周囲画像中における位置の情報をサーバ200に送信する(ステップS13)。
サーバ200では、移動***置入力部201にて各カメラ100から送信された移動体の位置情報を取得すると、選択評価値算出部206が各カメラの評価値yを算出して、その評価値yに基づいて、画像配信カメラを選択する(ステップS14)。そして、画像配信カメラ通知部208は、カメラ100に選択した画像配信カメラを通知する(ステップS15)。
画像配信カメラとして選択されたカメラ100は、切出し画像生成部105にて切出し画像を生成して、画像送信部104からサーバ200に切出し画像を送信する(ステップS16)。
サーバ200は、画像入力部209にて切出し画像を受信すると、歪み補正部210にて歪み補正を行い、平面画像を生成する(ステップS17)。そして、画像認識部211は、平面画像を用いて、その平面画像に映っている人物の認証を行い、認識結果出力部212より認識結果を出力する(ステップS18)。なお、平面画像及び認識結果は、必要に応じてそれぞれステップS17及びステップS18の後にモニタに表示する。
以上のように、本実施の形態の撮影システム1によれば、複数のカメラ100がサーバ200に接続されている場合において、サーバ200は、カメラから人の頭部までの距離dの評価値f1と、カメラに対するチルト方向の顔の向き(角度)αの評価値f2と、カメラに対する水平方向の顔の向き(角度)βの評価値f3とに基づいて求められる選択評価値yによって、画像配信カメラを選択するので、人物の認証に最適な画像を撮影したカメラから切出し画像を取得できる。
また、各カメラ100からは、全周囲画像を常にサーバ200に送信することはなく、全周囲画像よりデータ量の少ない切出し画像ですら常にサーバ200に送信するのではなく、画像配信カメラとして選択された場合にのみ送信する。各カメラ100から常にサーバに送るのは、移動体を検出したときの移動体の全周囲画像における位置の情報のみであり、この位置情報は画像情報に比べて非常にデータ量の小さい情報である。よって、本実施の形態の撮影システム1によれば、複数のカメラに接続されたサーバにおいて、一部のカメラで撮影された画像のみを採用する撮影システムにおいて、カメラとサーバとの間の通信トラフィックを大幅に軽減できる。
なお、上記の実施の形態では、画像配信カメラ選択部207が、カメラから人の頭部までの距離dと、カメラに対するチルト方向の顔の向き(角度)αと、カメラに対する水平方向の顔の向き(角度)βとを考慮して画像配信カメラを選択することを説明するために、距離dに関する評価値f1、角度αに関する評価値f2、角度βに関する評価値f3をそれぞれ算出する例を説明したが、上記の式(2)及び図3(a)からも明らかなように、距離dと角度α(0度〜90度)とは一対一の対応関係を有している。即ち、距離d及び角度αのいずれか一方が決まれば他方が決まり、評価値f1及び評価値f2のいずれか一方が決まれば他方が決まる。
従って、選択評価値yの実際の計算の際には、距離dと角度αとを同時に反映した評価値f12を用いて、選択評価値yを求めてもよい。評価値f12は、距離d又は角度αのいずれかを変数として求めることができる。あるいは、距離d及び角度αは、全周囲画像における移動体の中心からの距離rによって一義的に求められるので、評価値f12は、距離rを変数とすることもできる。即ち、評価値f12は、カメラと移動体との間の位置関係に関する評価値であるといえる。角度αを変数とするとき、選択評価値yは、下式(5)により求められる。
y=f12(α)×f3(β) ……(5)
図13は、カメラに対するチルト方向の顔の向きαと評価値f12との関係を示す図である。図13に示されるように、α=0(即ち、移動体がカメラの真下にあるとき)では、評価値f12は0であり、角度αが増加するにつれて評価値f12も増加する。角度αが約30度になったところで評価値f12はピークとなり、角度αが30度を超えて増加すると評価値f12は徐々に減少する。これは、角度αが30度を超えて増加すると、カメラに対するチルト方向の顔の角度が大きくなって、より顔が見易くなる反面、距離が遠くなるので、画質が劣化し、顔の認識が困難になるからである。
また、上記の実施の形態では、サーバ200は切出し画像を取得して人物認証を行ない、画像配信カメラ選択部207における画像配信カメラの選択では、人物認証(特に顔の画像に基づく認証)に最適なカメラを画像配信カメラとして選択した。そして、評価値の中に顔の正面方向が人物からカメラへの方向と近いものの評価値(f2、f3)を高くして、画像配信カメラを選択した。
しかしながら、人物の位置によっては、例えば実施例2の時刻5のように、人物認証に最適なカメラを選択しても横顔の画像しか得られない場合がある。このような場合において、画像認識部211に、正面の顔画像のほかに横顔の画像のデータベースがあるときは、その横顔の画像のデータベースを用いて、平面画像に映っている人物の認証を行なうことができる。
このために、画像配信カメラは、画像配信カメラの選択に用いた評価値の水平方向の顔の向きに関する情報(即ち、角度β)を画像認識部211に出力してよい。画像認識部211は、画像配信カメラ選択部207より取得した水平方向の顔の向きβに基づいて、正面の顔画像のデータベースではなく、横顔の画像のデータベースを参照することにより、人物認証を行なうことができる。
また、上記の実施の形態では、人物の顔が移動方向の正面を向いていると仮定して、人物の移動方向をその人物の水平方向の顔の向きとして評価値f3を求めたが、実際には人物が横を向きながら移動することもあり、移動方向が必ずしも水平方向の顔の向きに一致しない場合もある。そこで、人物の移動方向から推定した水平方向の顔の向きだけでなく、画像認識によって認識された水平方向の顔の向きを考慮してもよい。以下、このような変形例を説明する。
(変形例)
この変形例では、カメラ100に顔向き認識部が追加される。顔向き認識部は、全周囲画像生成部101から全周囲画像を取得するとともに、移動体検出部102から移動体の位置情報を取得する。顔向き認識部は、移動体の位置情報に基づいて、全周囲画像における移動体の位置の周辺で顔認識を行い、水平方向の顔の向きを認識する。顔向き認識部は、例えばパターンマッチングにより顔の向きを認識する。なお、このとき顔向き認識部は、過去の数フレームの平均値を用いて、顔の向きを認識してよい。
顔向き認識部にて認識された水平方向の顔の向きγは、カメラ100からサーバ200に送信され、サーバ200の選択評価値算出部206がこれを取得する。選択評価値算出部206は、上記の実施の形態における評価値f1〜f3に加えて、画像認識によって求めた水平方向の顔の向きγに基づく評価値f4を用いて選択評価値を求める。具体的には、選択評価値yは、下式(6)により求められる。
y=f1(d)×f2(α)×f3(β)×f4(γ) ……(6)
選択評価値算出部206は、上記の実施の形態と同様にして、カメラから人の頭部までの距離d、カメラに対するチルト方向の顔の向きα、及びカメラに対する水平方向の顔の向きβを求めると、これらの値に基づいてそれぞれ評価値f1、f2、f3を求める。選択評価値算出部206は、さらに、カメラ100から取得した、カメラに対する水平方向の顔の向きγに基づいて、評価値f4を求める。
図14は、カメラに対する水平方向の顔の向きγと評価値f4との関係を示す図である。角度γが−90度以下又は90度以上であるときは、評価値f4はゼロであり、−90度から0度に近づくにつれて評価値f4は大きくなり、0度をピークとして、0度から90度にかけて評価値f4は小さくなる。即ち、評価値f4は評価値f3と同じ関数である。
角度γが0度である場合は、人の顔がカメラに対して水平方向に正面を向いている状態であり、よって評価値f4を高くする。角度γが−90度及び90度の場合は、全周囲画像において人の顔が真横に写されている状態であり、角度γが−90度以下および90度以上になると人物の頭部を斜め後方又は後方から撮影することになる。よって、角度γが−90度以下および90度以上のときは、評価値f4はゼロになる。なお、図14の例では、−90度から90度までの間でf4が線形的に増加及び減少しているが、これに限らず、n次関数的に、又は指数関数的に増加及び減少してもよい。
選択評価値yは、f1とf2とf3とf4の積によって求められる。f1、f2、f3、f4のそれぞれの最大値は、1とすることができる。このとき、選択評価値yの最大値も1になる。また、f1、f2、f3、f4のそれぞれの最大値を異なる値とすることができる。ある評価値に対して他の評価値よりも大きな最大値を与えることで、その評価値を他の評価値よりも重視(重み付け)することができる。
図15は、変形例におけるカメラの配置と人の動き及び水平方向の顔の向きを示す図である。図16は、比較例との比較において本発明の実施の形態における変形例を説明するための図である。図15及び図16を参照して、図15のように配置された4つのカメラA〜Dに対して、人Mが図15のように移動した場合の画像配信カメラの選択について説明する。図15及び16における番号1〜5は、人Mが移動した際の各時刻における位置を示している。カメラA〜Dは、正方形の角に配置されている。なお、図16では、上記の実施の形態を本変形例の比較例として示している。
比較例では、時刻1においては、カメラAの評価値y(=f1×f2×f3)が最も大きくなるため、カメラAが画像配信カメラとして選択される。同様に、時刻2〜5では、それぞれカメラB、カメラB、カメラB、カメラDが画像配信カメラとして選択される。一方、本変形例では、時刻1においては、カメラAの評価値y(=f1×f2×f3×f4)が最も大きくなるため、カメラAが画像配信カメラとして選択される。同様に、時刻2〜5では、それぞれカメラB、カメラC、カメラC、カメラDが画像配信カメラとして選択される。
図16から明らかなように、比較例1では、時刻3では、人Mの横顔が写っており、顔向きが正面でないため、この人物を認証することが困難である。また、時刻4では、人Mの背面が写っており、顔が写っていないため、やはりこの人物を認証することができない。このような事象が生じるのは、図15に示すように、人物の水平方向の顔の方向とその移動方向とが異なっているからである。
これに対して、本変形例では、時刻3において、カメラBについては、水平方向の顔の向きγが著しく低くなるため、カメラBの評価値f4が小さくなり、選択評価値yが小さくなるので、カメラBは選択されなくなる。その代わりに、顔がより正面方向を向いているカメラCの評価値f4が大きくなり、その結果、カメラCが選択されている。
また、時刻4において、カメラBについては、人Mの背面が写っており、水平方向の顔の向きγが0になるため、カメラBの評価値f4が小さくなり、選択評価値yが小さくなるので、カメラBは選択されなくなる。その代わりに、顔がより正面方向を向いているカメラCの評価値f4が大きくなり、その結果、カメラCが選択されている。
このように、本変形例によれば、人物の水平方向の顔の向きが進行方向と異なることがあっても、各時刻において、顔の画像に基づいて人物の認証をするのに最適な画像を提供できるカメラを選択できる。これにより、各時刻において、人物の認証を行なうことができる。
なお、上記の変形例では、カメラ100の顔向き認識部が水平方向の顔の向きの角度γを求めて、これをサーバ200の選択評価値算出部206に提供し、選択評価値算出部206にて、γを変数とする評価値f4を求めたが、カメラ100の顔向き認識部が評価値f4を求めてサーバ200の選択評価値算出部206に提供してもよい。この場合には、顔向き認識部は、例えば、顔から両眼が検出された(正面を向いている)ときにf4=1とし、顔から一方の眼のみが検出された(横を向いている)ときにf4=0.5とし、顔から眼が検出されなかった(後を向いている)ときにf4=0としてよい。
また、上記で説明した変形例において、人物の移動方向から推定した水平方向の顔の向きβを用いないで、選択評価値yを求めてもよい。この場合は、選択評価値yは、下式(7)により求められる。
y=f1(d)×f2(α)×f4(γ) ……(7)
なお、上記の実施の形態及びその変形例では、顔の画像に基づいて人物の認証を行なうために、人物の顔の画像情報を多く持つ全周囲画像を撮影したカメラを画像配信カメラとして選択したが、本発明は、このような実施の形態に限られない。本発明の撮影システムは、特定の設定された方向を向いている人物が写った全周囲画像を撮影したカメラを画像配信カメラとして選択してもよい。例えば、監視システムとして応用される撮影システムを用いて犯罪捜査を行なう場合において、人物の背中の文字を確認したいときには、後ろ向きの人物が映っている画像を撮影したカメラの選択評価値が高くなるようにしてもよい。
また、上記の実施の形態及びその変形例では、画像認識処理に適した画像を撮影したカメラが画像配信カメラとして選択されるように選択評価値を設定したが、サーバにおける切出し画像の表示に重点をおく場合、又はサーバにおいて画像認識は行わず表示のみを行う場合は、表示に最適な画像を撮影したカメラが画像配信カメラとして選択されるように選択評価値を設定してよい。
さらに、上記の実施の形態及びその変形例では、複数のカメラ100から画像配信カメラを1つだけ選択したが、2以上のカメラを画像配信カメラとして選択してよい。この場合に、複数のカメラのうちの選択評価値が高いものから順に所定数のカメラを選択してもよいし、複数種類の選択評価値を用いて、選択評価値ごとにカメラを選択してもよい。
また、上記の実施の形態及びその変形例では、カメラ100は、移動体を検出して、その検出された移動体の全周囲画像における位置の情報をサーバ200に送信したが、このような態様に限られない。グローバル座標変換部202及びカメラ位置記憶部203をカメラ100側に設けて、カメラ100にて移動体を検出した後に、その検出された移動体のグローバル座標における位置を求めて、その位置情報をサーバ200に送信してもよい。
また、上記の実施の形態及びその変形例では、画像配信カメラとして選択されたカメラ100は、全周囲画像から切出し画像を生成して、この切出し画像をサーバ200に送信したが、選択されたカメラ100が全周囲画像をサーバ200に送信して、サーバ200において切出し画像を生成してもよい。
また、上記の実施の形態及びその変形例において、移動体は、必ずしも静止することなく移動しているものに限らず、過去の全周囲画像との間で差分が生じている部分を移動体が撮影されている部分として扱ってもよい。例えば、過去の全周囲画像にて存在しなかった物体が現在の全周囲画像にて写っている(この物体自体は静止している)場合も、この静止物体を移動体として検出してよい。
また、上記の実施の形態及びその変形例では、移動体検出部102が全周囲画像から移動体を検出して、選択評価値算出部206がカメラと移動体との位置関係に関する位置関係評価値(f1及びf2又はf12)を用いて選択評価値yを求めたが、選択評価値yを求めるのに、カメラと移動体との位置関係に関する位置関係評価値(f1及びf2及びf12)を用いずに、カメラに対する水平方向(パン方向)の顔の向きの評価値(f3及び/又はf4)のみを用いてもよい。
以上に現時点で考えられる本発明の好適な実施の形態を説明したが、本実施の形態に対して多様な変形が可能であり、そして、本発明の真実の精神と範囲内にあるそのようなすべての変形を添付の請求の範囲が含むことが意図されている。
以上のように、本発明は、複数のカメラとカメラ制御装置との間の通信のデータ量を軽減でき、複数のカメラを用いて撮影を行なう撮影システム等として有用である。
1 撮影システム
100 カメラ
101 全周囲画像生成部
102 移動体検出部
103 切出し画像生成部
104 画像送信部
200 サーバ(カメラ制御装置)
201 移動***置入力部
202 グローバル座標変換部
203 カメラ位置記憶部
204 移動***置記憶部
205 移動体対応付け部
206 選択評価値算出部
207 画像配信カメラ選択部
208 画像配信カメラ通知部
209 画像入力部
210 歪み補正部
211 画像認識部
212 認識結果出力部

Claims (11)

  1. カメラ制御装置と前記カメラ制御装置に接続された複数のカメラを含む撮影システムであって、
    前記複数のカメラの各々は、
    撮影により画像を生成する画像生成部と、
    前記画像生成部にて生成された画像から移動体を検出し、前記移動体の位置の情報を前記カメラ制御装置に送信する移動体検出部と、
    前記カメラ制御装置によって選択されたときに、前記移動体を含む画像を送信する画像送信部と、
    を備え、
    前記カメラ制御装置は、
    前記複数のカメラの各々からそれぞれ送信された前記位置の情報に基づいて、前記複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、
    前記画像配信カメラ選択部における選択結果を前記カメラに通知する画像配信カメラ通知部と、
    前記画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部と、
    を備えた
    ことを特徴とする撮影システム。
  2. 前記複数のカメラは、撮影対象場所の高所に、下向きに、互いの撮影範囲が少なくとも一部において重複するように設置され、
    前記画像生成部は、魚眼レンズを用いた撮影により、全周囲画像を生成し、
    前記画像配信カメラ選択部は、前記複数のカメラの各々の前記移動体検出部にてそれぞれ検出された各移動体の位置に基づいて、カメラと移動体との位置関係に関する位置関係評価値と、カメラに対する移動体の向きに関する角度評価値とを求め、前記位置関係評価値及び角度評価値に基づいて、前記画像配信カメラの選択を行うことを特徴とする請求項1に記載の撮影システム。
  3. 前記画像送信部は、前記画像生成部にて生成された画像中の前記移動体を含む一部領域の画像を送信することを特徴とする請求項1又は2に記載の撮影システム。
  4. 前記カメラ制御装置は、さらに、前記画像入力部にて入力した画像に基づいて、前記移動体の認識処理を行う画像認識部を備え、
    前記画像配信カメラ選択部は、前記複数のカメラのうちの、前記画像認識部における前記認識処理に適したカメラを前記画像配信カメラとして選択する
    ことを特徴とする請求項1ないし請求項3のいずれか一項に記載の撮影システム。
  5. カメラ制御装置と前記カメラ制御装置に接続された複数のカメラを含む撮影システムであって、
    前記複数のカメラの各々は、
    撮影により画像を生成する画像生成部と、
    前記画像生成部にて生成された画像を前記カメラ制御装置に送信する画像送信部と、
    を備え、
    前記カメラ制御装置は、
    前記カメラから送信された画像を入力する画像入力部と、
    前記画像入力部にて入力した画像に基づいて、当該画像中の移動体の認識処理を行う画像認識部と、
    を備え、
    前記撮影システムは、さらに、
    前記画像生成部にて生成された画像から前記移動体を検出する検出部と、
    移動体のカメラに対する角度に関する角度評価値に基づいて、前記複数のカメラのうちの何れのカメラの画像を前記画像認識部における認識処理の対象とするかを判断する判断部と、
    を備えたことを特徴とする撮影システム。
  6. 前記判断部は、前記移動体の移動方向に基づいて前記角度評価値を算出することを特徴とする請求項5に記載の撮影システム。
  7. 前記判断部は、前記画像生成部にて生成された画像に対する認識処理によって前記角度評価値を算出することを特徴とする請求項5又は6に記載の撮影システム。
  8. 複数のカメラに接続されて前記複数のカメラを制御するカメラ制御装置であって、
    前記複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、前記複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択部と、
    前記画像配信カメラ選択部における選択結果を前記カメラに通知する画像配信カメラ通知部と、
    前記画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力部と、
    を備えたことを特徴とするカメラ制御装置。
  9. カメラ制御装置と前記カメラ制御装置に接続された複数のカメラを含む撮影システムにおける撮影方法であって、
    前記複数のカメラの各々にて、撮影により画像を生成する画像生成ステップと、
    前記複数のカメラの各々にて、前記画像生成ステップにて生成された画像から移動体を検出する移動体検出ステップと、
    前記複数のカメラの各々から、前記移動体の位置の情報を前記カメラ制御装置に送信する位置情報送信ステップと、
    前記カメラ制御装置にて、前記複数のカメラの各々からそれぞれ送信された前記位置情報に基づいて、前記複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、
    画像配信カメラ選択ステップにおける選択結果を前記カメラに通知する画像配信カメラ通知ステップと、
    前記画像配信カメラ選択ステップにて選択されたカメラから、前記移動体を含む画像を前記カメラ制御装置に送信する画像送信ステップと、
    前記カメラ制御装置にて、前記画像送信ステップにて送信された前記画像を入力する画像入力ステップと、
    を含むことを特徴とする撮影方法。
  10. 複数のカメラに接続されて前記複数のカメラを制御するカメラ制御装置におけるカメラ制御方法であって、
    前記複数のカメラの各々から送信された、各カメラにてそれぞれ検出された各移動体の位置に基づいて、前記複数のカメラのうちの一部のカメラを画像配信カメラとして選択する画像配信カメラ選択ステップと、
    画像配信カメラ選択部における選択結果を前記カメラに通知する画像配信カメラ通知ステップと、
    前記画像配信カメラ選択部にて画像配信カメラとして選択されたカメラから送信された画像を入力する画像入力ステップと、
    を含むことを特徴とするカメラ制御方法。
  11. コンピュータに、請求項10に記載のカメラ制御方法を実行させるためのコンピュータプログラム。

JP2012552679A 2011-01-11 2012-01-11 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム Active JP5942270B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011002745 2011-01-11
JP2011002745 2011-05-18
PCT/JP2012/000118 WO2012096166A1 (ja) 2011-01-11 2012-01-11 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2012096166A1 JPWO2012096166A1 (ja) 2014-06-09
JP5942270B2 true JP5942270B2 (ja) 2016-06-29

Family

ID=46507075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012552679A Active JP5942270B2 (ja) 2011-01-11 2012-01-11 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム

Country Status (4)

Country Link
US (1) US9560321B2 (ja)
JP (1) JP5942270B2 (ja)
CN (1) CN103329518B (ja)
WO (1) WO2012096166A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9781336B2 (en) 2012-01-30 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Optimum camera setting device and optimum camera setting method
WO2013132836A1 (ja) 2012-03-05 2013-09-12 パナソニック株式会社 物体検出装置、物体検出方法、及び物体検出プログラム
JP6055823B2 (ja) * 2012-05-30 2016-12-27 株式会社日立製作所 監視カメラ制御装置及び映像監視システム
JP2014164216A (ja) * 2013-02-27 2014-09-08 Omron Corp 広角撮像装置
JP6141079B2 (ja) * 2013-04-08 2017-06-07 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP6206804B2 (ja) 2013-09-27 2017-10-04 パナソニックIpマネジメント株式会社 移動体追跡装置、移動体追跡システムおよび移動体追跡方法
JP6440937B2 (ja) * 2013-12-24 2018-12-19 株式会社東芝 情報対応付け装置、その方法及びそのプログラム
US9693023B2 (en) 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
JP6183305B2 (ja) * 2014-07-02 2017-08-23 株式会社デンソー 故障検出装置および故障検出プログラム
US20160261908A1 (en) * 2015-03-05 2016-09-08 Htc Corporation Media streaming system and control method thereof
US20200396422A1 (en) * 2015-04-14 2020-12-17 ETAK Systems, LLC Monitoring System for a Cell Tower
US20200404175A1 (en) * 2015-04-14 2020-12-24 ETAK Systems, LLC 360 Degree Camera Apparatus and Monitoring System
CN105007434B (zh) * 2015-07-24 2018-06-08 北京紫荆视通科技有限公司 视频数据的处理方法、处理装置和视频矩阵
JP6812976B2 (ja) * 2015-09-02 2021-01-13 日本電気株式会社 監視システム、監視ネットワーク構築方法、およびプログラム
JP6763390B2 (ja) 2015-09-02 2020-09-30 日本電気株式会社 監視システム、監視方法、およびプログラム
US10931923B2 (en) 2015-09-02 2021-02-23 Nec Corporation Surveillance system, surveillance network construction method, and program
US10977916B2 (en) 2015-09-02 2021-04-13 Nec Corporation Surveillance system, surveillance network construction method, and program
JP6514140B2 (ja) * 2016-03-17 2019-05-15 株式会社東芝 撮像支援装置、方法及びプログラム
US11019244B2 (en) * 2016-05-11 2021-05-25 Ubicquia Iq Llc Externally viewable orientation indication apparatus and method for an optical sensor
CN108259817B (zh) * 2016-12-28 2021-03-19 南宁富桂精密工业有限公司 图片拍摄***及方法
KR101837893B1 (ko) * 2017-02-24 2018-04-26 영남대학교 산학협력단 센서 기반 이동체 위치 추정 시스템 및 방법
JP6991045B2 (ja) * 2017-11-30 2022-01-12 キヤノン株式会社 画像処理装置、画像処理装置の制御方法
CN109040709B (zh) * 2018-09-21 2020-12-08 深圳市九洲电器有限公司 视频监控方法及装置、监控服务器及视频监控***
JP2020088821A (ja) * 2018-11-30 2020-06-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像生成装置、画像生成方法、プログラム、及び記録媒体
CN112019764B (zh) * 2019-05-29 2022-01-14 北京地平线机器人技术研发有限公司 摄像装置和摄像***
JP7374632B2 (ja) * 2019-07-09 2023-11-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN110418059B (zh) * 2019-07-30 2021-12-24 联想(北京)有限公司 应用于电子设备的图像处理方法、装置、电子设备、介质
CN118042262A (zh) 2019-12-18 2024-05-14 荣耀终端有限公司 一种控制方法、电子设备、计算机可读存储介质、芯片
JP7036153B2 (ja) * 2020-06-15 2022-03-15 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
CN112887620A (zh) * 2021-01-28 2021-06-01 维沃移动通信有限公司 视频拍摄方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002204444A (ja) * 2001-10-31 2002-07-19 Toshiba Corp 人物監視システム
JP2005142683A (ja) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd カメラ制御装置およびカメラ制御方法
JP2005323046A (ja) * 2004-05-07 2005-11-17 Omron Corp 監視システム、および監視カメラ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
JP4188394B2 (ja) * 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
KR101187909B1 (ko) 2007-10-04 2012-10-05 삼성테크윈 주식회사 감시 카메라 시스템
JP4547040B1 (ja) 2009-10-27 2010-09-22 パナソニック株式会社 表示画像切替装置及び表示画像切替方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002204444A (ja) * 2001-10-31 2002-07-19 Toshiba Corp 人物監視システム
JP2005142683A (ja) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd カメラ制御装置およびカメラ制御方法
JP2005323046A (ja) * 2004-05-07 2005-11-17 Omron Corp 監視システム、および監視カメラ

Also Published As

Publication number Publication date
CN103329518A (zh) 2013-09-25
CN103329518B (zh) 2016-08-17
US9560321B2 (en) 2017-01-31
JPWO2012096166A1 (ja) 2014-06-09
US20130278774A1 (en) 2013-10-24
WO2012096166A1 (ja) 2012-07-19

Similar Documents

Publication Publication Date Title
JP5942270B2 (ja) 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム
US9794544B2 (en) Unauthorized viewer detection system and method
CN107438173B (zh) 视频处理装置、视频处理方法和存储介质
US9084038B2 (en) Method of controlling audio recording and electronic device
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
US8928778B2 (en) Camera device, image processing system, image processing method and image processing program
CN111062234A (zh) 一种监控方法、智能终端及计算机可读存储介质
US20140098996A1 (en) Image display apparatus and image display method
JP2015075877A (ja) 撮影システム
US11037013B2 (en) Camera and image processing method of camera
JP2016151798A (ja) 情報処理装置および方法、並びにプログラム
WO2017187694A1 (ja) 注目領域画像生成装置
CN108781268B (zh) 图像处理装置和方法
CN110892444A (zh) 去除影像中的待处理对象的方法及执行该方法的装置
US9241141B1 (en) Projection block extraction
EP3745718B1 (en) Method of controlling pan-tilt-zoom camera by using fisheye camera and monitoring system
KR101718081B1 (ko) 손 제스처 인식용 초광각 카메라 시스템 및 그가 적용된 TVI(Transport Video Interface) 장치
US9300860B2 (en) Image-capturing apparatus
JP2010217984A (ja) 像検出装置及び像検出方法
US20150015738A1 (en) Image generation device, camera device, image display device, and image generation method
US10783646B2 (en) Method for detecting motion in a video sequence
JP2012222664A (ja) 車載カメラシステム
CN111860428B (zh) 一种人脸识别***及方法
US20120098966A1 (en) Electronic device and image capture control method using the same
JP2020144607A (ja) 人検出装置および人検出方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20141015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150223

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5942270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150