JP6936288B2 - カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム - Google Patents

カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム Download PDF

Info

Publication number
JP6936288B2
JP6936288B2 JP2019163100A JP2019163100A JP6936288B2 JP 6936288 B2 JP6936288 B2 JP 6936288B2 JP 2019163100 A JP2019163100 A JP 2019163100A JP 2019163100 A JP2019163100 A JP 2019163100A JP 6936288 B2 JP6936288 B2 JP 6936288B2
Authority
JP
Japan
Prior art keywords
camera
image
installation support
user
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019163100A
Other languages
English (en)
Other versions
JP2021044616A (ja
Inventor
尾上 勉
勉 尾上
江口 信之
信之 江口
明寛 秋山
明寛 秋山
Original Assignee
パナソニックi−PROセンシングソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックi−PROセンシングソリューションズ株式会社 filed Critical パナソニックi−PROセンシングソリューションズ株式会社
Priority to JP2019163100A priority Critical patent/JP6936288B2/ja
Priority to US17/005,922 priority patent/US11373334B2/en
Publication of JP2021044616A publication Critical patent/JP2021044616A/ja
Application granted granted Critical
Publication of JP6936288B2 publication Critical patent/JP6936288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、カメラ設置支援システムおよびカメラ設置支援方法に関する。
特許文献1には、監視対象の空間に設置されるカメラの設置位置を決定するための防犯カメラ設置支援装置が開示されている。防犯カメラ設置支援装置は、監視対象の空間に設置するカメラに求める画角およびカメラの使用を含む設置条件を受け付け、設置条件に基づきカメラに求める画角での撮影が可能な距離の範囲を求め、投影画像を空間における監視位置に投影する。この際に防犯カメラ設置支援装置は、距離の範囲に含まれる複数の地点毎に、当該地点と監視位置を位置合わせしたときに監視位置に投影されたモデル画像の画角がカメラに求める画角に適合するように当該モデル画像の基準画像を生成し、各地点の基準画像の中から監視位置と空間に持ち込まれた防犯カメラ設置支援装置との距離に対応する基準画像を抽出し、この基準画像に基づいて、空間に持ち込まれた防犯カメラ設置支援装置から監視位置への投影角度に応じた投影画像を生成する。
特開2017−135531号公報
しかし、上述した特許文献1の構成では、カメラが設置される場所として監視対象の空間条件(例えば、屋内あるいは屋外,撮影時刻,天候など)が考慮されなかった。よって、監視対象の空間に設置されて得られる実際のカメラの撮像画像は、その監視環境の空間によってはユーザが求める仕様(例えば明るさ,画質など)を満たさない可能性があった。
本開示は、上述した従来の事情に鑑みて案出され、カメラの設置環境に応じた撮像画像を提示し、カメラの撮像画像の画質に関するユーザによる仕様の確認を支援するカメラ設置支援システムを提供することを目的とする。
本開示は、ユーザによる入力操作を受け付け可能な端末装置とサーバとが互いに通信可能に接続されたカメラ設置支援システムであって、前記端末装置は、前記ユーザの入力操作に基づくカメラの仕様情報を含む設定情報と前記カメラが設置される環境条件と前記カメラが設置されるマップ画像とを前記サーバに送信し、前記サーバは、受信された前記設定情報および前記環境条件に基づいて、前記マップ画像上の前記カメラの撮像領域を算出し、算出された前記撮像領域内に、前記カメラの撮像対象となる被写体モデルを所定位置に配置し、前記撮像領域および前記被写体モデルを前記マップ画像に重畳した合成画像を生成し、前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置における前記被写体モデルの顔画像および全身画像を生成し、生成された前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを前記端末装置に送信し、前記端末装置は、受信された前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを表示する、カメラ設置支援システムを提供する。
また、本開示は、ユーザによる入力操作を受け付け可能な端末装置とサーバとが互いに通信可能に接続されたカメラ設置支援方法であって、前記ユーザの入力操作に基づくカメラの仕様情報を含む設定情報と前記カメラが設置される環境条件とに基づいて、前記カメラが配置されるマップ画像上の前記カメラの撮像領域を算出し、算出された前記撮像領域内に、前記カメラの撮像対象となる被写体モデルを所定位置に配置し、前記撮像領域および前記被写体モデルを前記カメラが配置される前記マップ画像に重畳した合成画像を生成し、前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置における前記被写体モデルの顔画像および全身画像を生成し、前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを表示する、カメラ設置支援方法を提供する。
本開示によれば、カメラの設置環境に応じた撮像画像を提示し、カメラの撮像画像の画質に関するユーザによる仕様の確認を支援できる。
実施の形態1に係るカメラ設置支援システムの内部構成例を示すブロック図 実施の形態1に係るカメラ設置支援システムの動作手順例を示すフローチャート 実施の形態1に係るカメラ設置支援システムの動作手順例を示すフローチャート カメラ(撮像領域:小)の配置モデルにおける表示画面例 カメラ(撮像領域:中)の配置モデルにおける表示画面例 カメラ(撮像領域:大)の配置モデルにおける表示画面例 環境条件に応じた顔画像のそれぞれの比較例 実施の形態1の変形例1に係るカメラ設置支援システムにおける用途設定に応じた撮像領域の算出手順例を示すフローチャート カメラの用途設定に対応した撮像領域のそれぞれの表示例 実施の形態1の変形例2に係るカメラ設置支援システムにおけるカメラ設定情報リストの出力手順例を示すフローチャート カメラ設定情報リストの出力例を示す図 実施の形態1の変形例3に係るカメラ設置支援システムにおけるカメラの配置方向の修正手順例を示すフローチャート カメラの配置方向の修正例を示す図
(実施の形態の内容に至る経緯)
従来、監視対象の空間に設置されるカメラの設置位置を決定するための防犯カメラ設置支援装置およびプログラムがある。この防犯カメラ設置支援装置およびプログラムは、カメラに求める画角およびカメラの使用を含む設置条件に基づき、カメラの撮影可能な距離の範囲を求め、投影画像を空間における監視位置に投影する。防犯カメラ設置支援装置およびプログラムは、求めた距離の範囲に含まれる複数の地点のそれぞれの距離ごとの基準画像のそれぞれを抽出し、基準画像のそれぞれと本装置から監視位置への投影角度とに応じて投影画像のそれぞれを生成する。しかし、上述した防犯カメラ設置支援装置およびプログラムは、監視対象の空間条件(例えば、屋内あるいは屋外,撮影時刻,天候など)が考慮されなかった。よって、監視対象の空間に設置されて得られる実際のカメラの撮像画像は、ユーザが求める仕様(例えば明るさ,画質など)を満たさない可能性があった。
そこで、以下の各実施の形態においては、カメラの設置環境に応じた撮像画像を提示し、カメラの撮像画像の画質に関するユーザによる仕様の確認を支援できるカメラ設置支援システムおよびカメラ設置支援方法の例を説明する。
以下、適宜図面を参照しながら、本開示に係るカメラ設置支援システムおよびカメラ設置支援方法の構成および作用を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
図1は、実施の形態1に係るカメラ設置支援システム100の内部構成例を示すブロック図である。カメラ設置支援システム100は、例えば所定の場所および環境にカメラを設置した際の撮像画像をシミュレーションするシステムであって、ユーザが希望するカメラの設置を支援するためのシステムである。カメラ設置支援システム100は、端末装置P1と、ネットワークNW1と、サーバS1と、を含んで構成される。なお、実施の形態1に係るカメラは、例えば監視カメラであるが、カメラの用途および種類はこれに限定されない。
端末装置P1は、ユーザの入力操作を受け付け可能なインターフェース(例えば、キーボード,マウス,タッチパネルディスプレイなど)を備える。端末装置P1は、ネットワークNW1を介してサーバS1との間で通信可能に接続され、ユーザの入力操作に基づいて生成された信号を、ネットワークNW1を介してサーバS1に送信する。また、端末装置P1は、ネットワークNW1を介してサーバS1から受信された合成画像をモニタ14に表示する。端末装置P1は、通信部10と、プロセッサ11と、メモリ12と、入力部13と、モニタ14と、を含んで構成される。
通信部10は、ネットワークNW1を介してサーバS1との間においてデータもしくは情報の送受信を行うための通信インターフェース回路を用いて構成される。通信部10は、無線通信ネットワークまたは有線通信ネットワークを通じて、プロセッサ11によって生成されたユーザの入力操作に基づく信号をサーバS1に送信し、サーバS1から受信された合成画像などの表示指示をプロセッサ11に出力する。
プロセッサ11は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11はメモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ここでいう各部の機能は、例えば、入力部13に入力されたユーザの入力操作に基づいて信号を生成する機能,サーバS1にから受信された合成画像をモニタ14に表示させる機能などである。
メモリ12は、例えばプロセッサ11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ11の動作を規定するプログラムが書き込まれている。
入力部13は、例えばユーザの入力操作を検出するユーザインターフェースであり、マウス、キーボードまたはタッチパネルなどを用いて構成される。入力部13は、ユーザの入力操作に基づいて、ユーザによって指定(選択)されたカメラに関する設定情報(例えば、設置画角,ユーザが要求するPPM(Pixel per meter)あるいはPPF(Pixel per foot)など),カメラが設置される環境条件(例えば、屋内あるいは屋外,照明ありあるいは照明なし,天候が晴れあるいは曇りなど)を受け付けて信号に変換し、プロセッサ11に出力する。また、入力部13は、ユーザによってアップロードされたカメラを設置するマップ画像IMGをプロセッサ11に出力する。
なお、PPMは、カメラの最大解像度の水平解像度を示す水平ピクセル数を、被写体までの水平距離およびカメラの設置高さに基づいて算出された被写体までの距離(メートル)で除算して算出される画素密度である。一方、PPFは、カメラの最大解像度の水平解像度を示す水平ピクセル数を、被写体までの水平距離およびカメラの設置高さに基づいて算出された被写体までの距離(フィート)で除算して算出される画素密度である。
PPMは、240〜630で被写体の顔認証,300以上で被写体の人相が分かる程度の解像度となり、100以上で被写体の全身および行動が識別可能となる。また、被写体がナンバープレートである場合、PPMは、240以上でナンバー情報の読み取りが可能となり、150以上でユーザの目視確認による識別が可能となる。なお、ここに示すPPMの各数値は一例であり、カメラごとの性能,設置環境の影響により変動することは言うまでもない。
また、ここでいうマップ画像IMGは、例えばCAD(Computer Aided Design)などの設計支援ツールを用いて作成され、ユーザがカメラを設置したい部屋あるいは駐車場などの地図、見取り図である。マップ画像IMGは、ユーザによって端末装置P1にアップロードされ、ネットワークNW1を介してサーバS1に送信される。
モニタ14は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)などのディスプレイを用いて構成される。モニタ14は、サーバS1から受信された合成画像を含むシミュレーション画面を表示する。
ネットワークNW1は、端末装置P1およびサーバS1との間で無線通信ネットワークまたは有線通信ネットワークによって通信可能に接続される。ここでいう無線通信ネットワークは、例えば無線LAN(Local Area NetWork)、無線WAN(Wide Area NetWork)、4G(第4世代移動通信システム)、5G(第5世代移動通信システム)、またはWi−fi(登録商標)等の無線通信規格に準じて提供される。
サーバS1は、ネットワークNW1を介して端末装置P1から受信された信号に基づいて、カメラの設置シミュレーションを実行し、設置されたカメラによって撮像される被写体モデルの撮像画像を含むシミュレーション結果を生成する。サーバS1は、生成されたシミュレーション結果を、ネットワークNW1を介して端末装置P1に送信する。サーバS1は、通信部20と、プロセッサ21と、メモリ22と、カメラデータベースDBと、を含んで構成される。
通信部20は、ネットワークNW1を介して端末装置P1との間においてデータもしくは情報の送受信を行うための通信インターフェース回路を用いて構成される。通信部20は、無線通信ネットワークまたは有線通信ネットワークを通じて、端末装置P1から受信されたユーザの入力操作に基づく信号をプロセッサ21に出力し、プロセッサ21によって生成されたシミュレーション結果を端末装置P1に送信する。
プロセッサ21は、例えばCPUまたはFPGAを用いて構成されて、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21はメモリ22に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ここでいう各部の機能は、例えば、端末装置P1から受信されたユーザの入力操作に基づく信号による制御を実行する機能,入力されたカメラの設定情報あるいは環境条件に基づいて、カメラの撮像領域を算出する機能,入力された環境条件およびカメラの設定情報に基づいて被写体モデルの顔画像および全身画像あるいはナンバープレート画像を生成する機能などである。
プロセッサ21は、端末装置P1から入力されたユーザの入力操作に基づく信号(つまり、カメラの設定情報,カメラを設置する環境条件を示す信号)を通信部20より入力される。プロセッサ21は、入力された信号に基づいて、ユーザによって指定(選択)されたカメラに関する情報をカメラデータベースDBに要求する。プロセッサ21は、カメラデータベースDBから入力されたカメラに関する情報、受信されたカメラの設定情報あるいはカメラが設置される環境条件に基づいて、カメラの撮像領域を算出する。
プロセッサ21は、算出されたカメラの撮像領域と設置位置を示すアイコンとを、マップ画像IMG上の任意の位置あるいはユーザによって指定(選択)された位置に重畳する。また、プロセッサ21は、マップ画像IMGにおける算出されたカメラの撮像領域内に、このカメラによって撮像される被写体モデルを重畳する。プロセッサ21は、マップ画像IMGにカメラの設置位置を示すアイコン、カメラの撮像領域および被写体モデルを重畳した合成画像を生成し、通信部20に出力する。なお、プロセッサ21は、まずカメラの設置位置を示すアイコンをユーザによって指定(選択)された位置に重畳してから、カメラの撮像領域を算出し、アップ画像上に重畳してもよい。
また、プロセッサ21は、カメラによって撮像され、カメラが設置される環境条件に応じた被写体の顔画像,全身画像およびナンバープレート画像を生成する。プロセッサ21は、生成された各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を通信部20に出力する。
通信部20は、入力された合成画像を、ネットワークNW1を介して端末装置P1に送信する。
メモリ22は、例えばプロセッサ21の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ21の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ21の動作を規定するプログラムが書き込まれている。
カメラデータベースDBは、複数のカメラのそれぞれに関する情報を記憶する。カメラデータベースDBは、プロセッサ21から要求されたカメラに関する情報を出力する。カメラデータベースDBは、複数のカメラのそれぞれに関する情報として、例えばカメラの製品名,機種名,型番,解像度,撮像画像の圧縮方式,IPS(Image per second)あるいはFPS(Frame per second),画質モード,PPMあるいはPPF,bps(bit per second)などを記憶する。なお、複数のカメラのそれぞれに関する情報は、上述した例に限定されないことは言うまでもない。
次に、図2Aおよび図2Bを参照し、カメラ設置支援システム100の動作手順について説明する。図2Aは、実施の形態1に係るカメラ設置支援システム100の動作手順例を示すフローチャートである。図2Bは、実施の形態1に係るカメラ設置支援システム100の動作手順例を示すフローチャートである。なお、図2Aおよび図2Bに示す動作手順は一例であり、処理の順序はこれに限定されない。
端末装置P1は、ユーザの操作に基づいて、カメラに関する各種設定(具体的には、ユーザによって指定(選択)されたカメラに関する設定情報,カメラを設置する環境条件)を設定するための画面を表示する(St1)。
端末装置P1は、ユーザによってアップロードされ、カメラを設置したい部屋あるいは駐車場などの地図、見取り図となるマップ画像IMGを取り込む(St2)。
サーバS1は、マップ画像IMGにおいて、ユーザの入力操作に基づいて、指定(選択)されたカメラを示すアイコンを、指定(選択)された位置に重畳した合成画像を生成する(St3)。サーバS1は、生成された合成画像を端末装置P1に送信する。なお、この際端末装置P1に表示され、ユーザによって閲覧される合成画像は、マップ画像IMG上の指定(選択)された位置にカメラが配置されて表示される。
サーバS1は、カメラに関する設定情報およびカメラが設置される環境条件に基づいて、カメラの撮像領域を算出する。サーバS1は、ステップSt3の処理で生成された合成画像に対して、算出されたカメラの撮像領域をマップ画像IMGに重畳した新たな合成画像を生成する(St4)。サーバS1は、生成された合成画像を端末装置P1に送信する。なお、この際端末装置P1に表示され、ユーザによって閲覧される合成画像は、マップ画像IMG上の指定(選択)された位置に配置されたカメラとこのカメラの撮像領域とを含んで表示される。
サーバS1は、ステップSt4の処理において算出されたカメラの撮像領域(つまり、画角)内に被写体モデルを配置する(St5)。なお、この被写体モデルは、ユーザの入力操作がある場合には、この入力操作に基づいて指定(選択)された位置に配置されてよい。サーバS1は、さらに被写体モデルを重畳した合成画像を生成する。サーバS1は、生成された合成画像を端末装置P1に送信する。合成画像は、端末装置P1によって受信され、モニタ14に表示される。
次に、ステップSt5の処理において配置された被写体モデルの位置および設定されたカメラの環境条件に基づいて、カメラによって撮像される各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)の生成および表示手順について説明する。
サーバS1は、ユーザによって設定された環境条件が環境条件1を満たすか否かを判定する。具体的に、サーバS1は、ユーザによって設定されたカメラが設置される環境条件が、屋内あるいは屋外かを判定する(St6)。
サーバS1は、ステップSt6の処理において環境条件が屋内である場合(St6,屋内)、さらに設定された環境条件において照明があるか否かを判定する(St7)。なお、環境条件に照度が設定された場合、サーバS1は、設定された照度が閾値を超えるか否かであってもよい。
サーバS1は、ユーザによって設定された環境条件が環境条件2を満たすか否かを判定する。具体的に、サーバS1は、ステップSt7の処理において、照明がある場合(St7,照明あり)、条件「屋内/照明あり」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋内/照明あり」における各種撮像画像をモニタ14に表示する(St8)。
一方、サーバS1は、ステップSt7の処理において、照明がない場合(St7,照明なし)、条件「屋内/照明なし」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋内/照明なし」における各種撮像画像をモニタ14に表示する(St9)。
さらに、サーバS1は、ユーザによって設定された環境条件が環境条件3を満たすか否かを判定する。具体的に、サーバS1は、ステップSt6の処理において環境条件が屋外である場合(St6,屋外)、カメラによって撮像される環境条件(時間帯)が昼間か夜間かを判定する(St10)。
サーバS1は、ユーザによって設定された環境条件が環境条件4を満たすか否かを判定する。具体的に、サーバS1は、ステップSt10の処理において環境条件が昼間である場合(St10,昼間)、さらに設定された環境条件において天候が晴れか曇りかを判定する(St11)。なお、雨は曇りに含まれてよい。
サーバS1は、ステップSt11の処理において、天候が晴れの場合(St11,晴れ)、条件「屋外/昼間/晴れ」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋外/昼間/晴れ」における各種撮像画像をモニタ14に表示する(St12)。
一方、サーバS1は、ステップSt11の処理において、照明がない場合(St11,曇り)、条件「屋外/昼間/曇り」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋外/昼間/曇り」における各種撮像画像をモニタ14に表示する(St13)。
さらに、サーバS1は、ユーザによって設定された環境条件が環境条件5を満たすか否かを判定する。具体的に、サーバS1は、ステップSt10の処理において環境条件が夜間である場合(St10,夜間)、カメラによって撮像される環境条件に光源があるか否かを判定する(St14)。なお、ここでいう光源は、照度として設定されてもよく、条件が「屋外/夜間」である場合の照度を光源と判定してもよい。また、サーバS1は、設定された光源の照度が閾値を超えるか否かを判定してもよい。
サーバS1は、ステップSt14の処理において、光源がある場合(St14,光源あり)、条件「屋外/夜間/光源あり」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋外/夜間/光源あり」における各種撮像画像をモニタ14に表示する(St15)。
一方、サーバS1は、ステップSt14の処理において、光源がない場合(St14,光源なし)、条件「屋外/夜間/光源なし」における各種撮像画像(被写体の顔画像,全身画像およびナンバープレート画像)を生成する。サーバS1は、生成された各種撮像画像を、ネットワークNW1を介して端末装置P1に送信する。端末装置P1は、受信された条件「屋外/夜間/光源なし」における各種撮像画像をモニタ14に表示する(St16)。
以上により、実施の形態1に係るカメラ設置支援システム100は、カメラの設置環境に応じた各種撮像画像を提示でき、よりユーザの要求に合ったカメラの設置支援を実現できる。
なお、図2Bの動作手順例に示す環境条件1〜5のそれぞれは、一例であり、これに限定されない。カメラ設置支援システム100は、環境条件に加えて、カメラの仕様条件に応じた各種撮像画像を生成および表示してよい。カメラの仕様条件は、カメラが備える照明などの条件である。これにより、カメラ設置支援システム100は、例えば環境条件が「屋外/夜間」である場合、さらにカメラが照明を備えるか否か、カメラが備える照明がIR照明であるか否かなどを判定し、これらの条件に応じた各種撮像画像を生成してよい。
次に、プロセッサ21によって生成され、モニタ14に表示される合成画像および各種撮像画像の表示画面例について、図3A、図3Bおよび図3Cのそれぞれを参照して説明する。図3Aは、カメラCA3(撮像領域Ar3:小)の配置モデルにおける表示画面Sr1例である。図3Bは、カメラCA2(撮像領域Ar2:中)のモデルにおける表示画面Sr2例である。図3Cは、カメラCA1(撮像領域Ar1:大)の配置モデルにおける表示画面Sr3例である。図3A〜図3Cのそれぞれに示す複数のカメラCA1,CA2,CA3のそれぞれは、同一カメラであり、ユーザによって撮像領域を拡張あるいは縮小されている例を示す。
カメラ設置支援システム100における入力部13は、ユーザによって撮像領域の拡張あるいは縮小操作を受け付ける。なお、撮像領域の拡張あるいは縮小操作は、設定画面で撮像距離の入力により実行されてもよいし、被写体モデルを選択したままドラッグ&ドロップ操作により実行されてもよい。カメラ設置支援システム100は、ユーザによって撮像領域の拡張あるいは縮小操作が行われた場合、拡張あるいは縮小操作された撮像領域および被写体モデルの位置に応じた各種撮像画像を生成する。
これにより、ユーザは、カメラの設定情報(例えば、PPMなど)を細かく入力することなく指定したカメラおよび撮像領域における各種撮像画像を容易に閲覧することができる。なお、環境条件が設定された場合には、カメラ設置支援システム100は、さらに設定されたカメラが設置される環境条件に応じた各種撮像画像を生成する。
カメラ設定情報リストLST1は、カメラデータベースDBに記憶された複数のカメラのそれぞれの用途に応じた分類(例えば、Indoor Fixed Box,Indoor Fixed Dome,Indoor PTZ,Indoor Panoramic,Outdoor Bullet type,Outdoor Fixed Dome,Outdoor PTZ,Outdoor Panoramic,Multi Sensorなど)が表示される。ユーザは、カメラ設定情報リストLST1のうち、設置したいカメラの分類を選択し、さらに選択したカメラの設定情報あるいはカメラが設置される環境条件などの情報を入力する。なお、カメラの設定情報あるいはカメラが設置される環境条件などの設定画面については、図を省略する。
アップロードボタンIUは、カメラを設置するマップ画像IMGをアップロードするためのボタンである。ユーザは、アップロードボタンIUを選択し、マップ画像IMGをアップロードする。
マップ画像IMGは、カメラを設置する地図あるいは見取り図などである。カメラ設置支援システム100は、マップ画像IMGのデータ内に記憶された距離情報を取得する。また、マップ画像IMGに距離情報が記憶されていない場合、アップロードの際に画像の長辺あるいは短辺が示す距離情報をユーザにより入力されてもよい。アップロードされたマップ画像IMGには、ユーザによって指定(選択)された1以上のカメラCA1〜CA3のそれぞれと、カメラCA1〜CA3のそれぞれに設定された撮像領域Ar1,Ar2,Ar3のそれぞれと、カメラCA1〜CA3のそれぞれによって撮像される被写体モデルHM1,HM2,HM3のそれぞれとが重畳され、表示される。
カメラCA1は、他のカメラCA2,CA3のそれぞれによりも広い撮像領域Ar1が設定され、撮像領域Ar1内かつ距離が最も遠い位置に位置する被写体モデルHM1を撮像する。
カメラCA2は、カメラCA1よりも小さく、かつカメラCA3よりも広い撮像領域Ar2が設定され、撮像領域Ar2内かつ距離が最も遠い位置に位置する被写体モデルHM2を撮像する。
カメラCA3は、他のカメラCA1,CA2のそれぞれよりも小さい撮像領域Ar3が設定され、撮像領域Ar3内かつ距離が最も遠い位置に位置する被写体モデルHM3を撮像する。
カメラ情報CAI1は、ユーザによって設定されたカメラCA1の設定情報の一部を含んで表示される。例えば、図3Cに示すカメラ情報CAI1は、「Model:WV−S1132、Type:Indoor Fixed Box、Resolution:1280×1280、Height:2.6Meter、Distance:14.6Meter、Camera Angle:68°」というカメラCA3の設定情報を含んで表示される。なお、HeightはカメラCA1が設置された高さを示す。Distanceは、カメラCA1と被写体モデルとの間の撮像距離(水平距離)を示す。Camera Angleは、カメラCA1が設置された設置角度を示す。
カメラ情報CAI2は、ユーザによって設定されたカメラCA2の設定情報の一部を含んで表示される。例えば、図3Bに示すカメラ情報CAI2は、「Model:WV−S1132、Type:Indoor Fixed Box、Resolution:1280×1280、Height:2.6Meter、Distance:6Meter、Camera Angle:68°」というカメラCA3の設定情報を含んで表示される。
カメラ情報CAI3は、ユーザによって設定されたカメラCA3の設定情報の一部を含んで表示される。例えば、図3Aに示すカメラ情報CAI3は、「Model:WV−S1132、Type:Indoor Fixed Box、Resolution:1280×1280、Height:2.6Meter、Distance:1.9Meter、Camera Angle:68°」というカメラCA3の設定情報を含んで表示される。
なお、図3A〜図3Cに示すカメラ情報CAI1〜CAI3のそれぞれは、一例であり、これに限定されない。カメラ情報CAI1〜CAI3のそれぞれは、例えば環境条件(例えば、条件「屋内/照明あり」,条件「屋外/夜間/光源なし」など)、カメラの画素密度(PPMあるいはPPF)などの情報を含んでよい。
保存ボタンSPは、ユーザによって入力操作された各種設定情報(カメラの設定情報、環境条件など)、マップ画像IMG、マップ画像IMG上に配置(重畳)されたカメラおよび被写体モデルの位置情報などの記憶処理を実行するためのボタンである。保存ボタンSPが選択されると、プロセッサ11はこれらの情報および画像をメモリ12に記憶する。
マップ追加ボタンADは、例えば他のフロア、部屋あるいは区画など、現在のマップ画像IMGに新たなマップ画像IMGの追加を実行するためのボタンである。なお、マップ追加ボタンADは、現在のマップ画像IMGの差し替えを実行可能であってもよい。
図3Aに示す各種撮像画像について説明する。図3Aでは、カメラCA3が選択され、撮像領域Ar3内に配置された被写体モデルHM3に対する各種撮像画像として、顔画像FA3、ナンバープレート画像LP3および全身画像PP3が生成されている。また、図3Aにおいては、生成された各種撮像画像の画素密度をPPMで表示する画素密度表示ボタンPMが選択されている。
カメラ設置支援システム100は、画素密度表示ボタンPMが選択された場合、カメラの水平ピクセル数を、被写体までの距離(メートル)で除算して画素密度T3を算出する。図3Aに示すカメラCA3によって撮像された各種撮像画像の画素密度T3は「630」である。
これにより、ユーザは、生成された各種撮像画像と各種撮像画像の画素密度T3とに基づいて、カメラCA3がユーザの要求する撮像画像を撮像可能か否か判断できる。なお、カメラCA3によって撮像される各種撮像画像の画素密度T3が示す「630」は、顔認証に適し、かつ読み取りシステムによるがナンバーの自動読み取りが実行可能な画素密度である。
次に、図3Bに示す各種撮像画像について説明する。図3Bでは、カメラCA2が選択され、撮像領域Ar2内に配置された被写体モデルHM2に対する各種撮像画像として、顔画像FA2、ナンバープレート画像LP2および全身画像PP2が生成されている。また、図3Bにおいては、生成された各種撮像画像の画素密度をPPMで表示する画素密度表示ボタンPMが選択されている。
カメラ設置支援システム100は、画素密度表示ボタンPMが選択された場合、カメラの水平ピクセル数を、被写体までの距離(メートル)で除算して画素密度T2を算出する。図3Bに示すカメラCA2によって撮像された各種撮像画像の画素密度T2は「176」である。
これにより、ユーザは、生成された各種撮像画像と各種撮像画像の画素密度T2とに基づいて、カメラCA2がユーザの要求する撮像画像を撮像可能か否か判断できる。なお、カメラCA2によって撮像される各種撮像画像の画素密度T2が示す「176」は、顔認証に適さないが目視による被写体モデルHM2の顔の識別および全身の識別と被写体モデルHM2の行動を識別可能な画素密度である。また、ナンバープレート画像LP2は、目視によるナンバーの読み取りが可能な画素密度である。このような場合、ユーザは、撮像されたナンバープレートに対して管理者あるいは警備員などによる目視確認が行われる場合には、現在のカメラCA2の設定であってもナンバープレートの撮像用途には使用可能と判断できる。
次に、図3Cに示す各種撮像画像について説明する。図3Cでは、カメラCA1が選択され、撮像領域Ar1内に配置された被写体モデルHM1に対する各種撮像画像として、顔画像FA1、ナンバープレート画像LP1および全身画像PP1が生成されている。また、図3Cにおいては、生成された各種撮像画像の画素密度をPPMで表示する画素密度表示ボタンPMが選択されている。
カメラ設置支援システム100は、画素密度表示ボタンPMが選択された場合、カメラの水平ピクセル数を、被写体までの距離(メートル)で除算して画素密度T1を算出する。図3Cに示すカメラCA1によって撮像された各種撮像画像の画素密度T1は「98」である。
これにより、ユーザは、生成された各種撮像画像と各種撮像画像の画素密度T1とに基づいて、カメラCA1がユーザの要求する撮像画像を撮像可能か否か判断できる。なお、カメラCA1によって撮像される各種撮像画像の画素密度T1が示す「98」は、顔認証に適さないが目視による被写体モデルHM1の全身の識別および行動を識別可能な画素密度である。一方、ナンバープレート画像LP1は、目視によるナンバーの読み取りが困難な画素密度である。
なお、図3A〜図3Cのそれぞれを用いた説明した画素密度T1〜T3のそれぞれは、すべて画素密度表示ボタンPMが選択された例を示したが、画素密度表示ボタンPFが選択されてもよい。カメラ設置支援システム100は、画素密度表示ボタンPFが選択された場合、カメラの水平ピクセル数を、被写体までの距離(フィート)で除算して算出する。画素密度表示ボタンPFが選択された場合の例は、図10で説明する。
カメラリストボタンLSTは、マップ画像IMG上に設置された1以上のカメラのそれぞれに設定された設定情報をCSV(Comma Separated Values)形式などに変換し、ダウンロードするためのボタンである。これにより、ユーザは、マップ画像IMG上に設置された1以上のカメラのそれぞれに設定された設定情報を一括でダウンロードできる。さらに、ユーザは、カメラの設定情報をCSV形式でダウンロードできるため、注文票などの作成が容易となる。
画像保存ボタンSVは、マップ画像IMGに、カメラのそれぞれの位置と、カメラのそれぞれの撮像領域と、被写体モデルの位置とが重畳された合成画像を画像データとしてメモリ12に記憶させるためのボタンである。画像保存ボタンSVが選択されると、合成画像は、プロセッサ11によってメモリ12に記憶される。なお、記憶される画像データは、合成画像に限らず、例えばカメラのそれぞれにおける被写体モデルの顔画像,全身画像,ナンバープレート画像あるいは画素密度(つまり、PPMあるいはPPF)の画像が関連付けられて記憶されてもよい。
図4は、環境条件に応じた顔画像FA11,FA12,FA13,FA14,FA15のそれぞれの比較例である。図4に示す横軸は、カメラと被写体モデルとの間の撮像距離を示す。撮像距離は、距離D1が最も近く、距離D3が最も遠い。また、図4に示す縦軸は、カメラが撮像する環境条件の1つである照度を示す。照度は、照度L1が最も明るく、照度L3が最も暗い。
顔画像FA11は、距離D1および照度L1の条件で撮像された被写体モデルの顔画像である。顔画像FA12は、距離D2および照度L1の条件で撮像された被写体モデルの顔画像である。顔画像FA13は、距離D3および照度L1の条件で撮像された被写体モデルの顔画像である。これらの顔画像FA11〜FA13によると、顔画像は、撮像距離に応じて画素密度が低下し、被写体モデルの顔の判別が困難となる。
顔画像FA11は、距離D1および照度L1の条件で撮像された被写体モデルの顔画像である。顔画像FA14は、距離D1および照度L2の条件で撮像された被写体モデルの顔画像である。顔画像FA15は、距離D1および照度L3の条件で撮像された被写体モデルの顔画像である。これらの顔画像FA11,FA14,FA15によると、顔画像は、撮像された際の照度に応じて顔画像そのものが暗くなり、被写体モデルの顔の判別が困難となる。
以上により、実施の形態1に係るカメラ設置支援システム100は、ユーザによる入力操作を受け付け可能な端末装置P1とサーバS1とが互いに通信可能に接続され、端末装置P1は、ユーザの入力操作に基づくカメラCA1の仕様情報を含む設定情報とカメラCA1が設置される環境条件とカメラが設置されるマップ画像IMGとをサーバS1に送信する。サーバS1は、受信された設定情報および環境条件に基づいて、マップ画像IMG上のカメラの撮像領域Ar1を算出し、算出された撮像領域Ar1内に、カメラCA1の撮像対象となる被写体モデルHM1を所定位置に配置し、撮像領域Ar1および被写体モデルHM1をマップ画像に重畳した合成画像を生成し、設定情報および環境条件に基づいて、カメラCA1によって撮像されると推定される所定位置における被写体モデルの顔画像FA1および全身画像PP1を生成し、生成された合成画像と被写体モデルHM1の顔画像FA1および全身画像PP1とを端末装置P1に送信する。端末装置P1は、受信された合成画像と被写体モデルHM1の顔画像FA1および全身画像PP1とを表示する。
これにより、実施の形態1に係るカメラ設置支援システム100は、カメラの設置環境に応じた撮像画像として被写体モデルHM1の位置に位置する人物の顔画像FA1および全身画像PP1を生成して表示し、カメラCA1の撮像画像の画質に関するユーザによる仕様の確認を支援できる。つまり、ユーザは、カメラの設置環境に応じて生成された撮像画像(顔画像FA1および全身画像PP1)を確認でき、これらの撮像画像がユーザの要求する仕様を満たすか否かを確認できる。
また、実施の形態1に係るカメラ設置支援システム100におけるサーバS1は、設定情報および環境条件に基づいて、カメラCA1によって撮像されると推定される所定位置に車両が配置された場合の車両のナンバープレート画像LP1を生成して、端末装置P1に送信する。端末装置P1は、受信されたナンバープレート画像LP1を表示する。これにより、実施の形態1に係るカメラ設置支援システム100は、カメラの設置環境に応じた撮像画像として被写体モデルHM1の位置に位置する車両のナンバープレート画像LP1を生成して表示し、カメラCA1の撮像画像(ナンバープレート画像LP1)の画質に関するユーザによる仕様の確認を支援できる。つまり、ユーザは、カメラの設置環境に応じて生成された撮像画像(ナンバープレート画像LP1)を確認でき、撮像画像(ナンバープレート画像LP1)がユーザの要求する仕様を満たすか否かを確認できる。
また、実施の形態1に係るカメラ設置支援システム100におけるサーバS1は、ユーザの端末装置P1に対する操作によって選択されたカメラによって撮像される顔画像と全身画像とナンバープレート画像とを生成して、端末装置P1に送信する。端末装置P1は、受信された顔画像と全身画像とナンバープレート画像とを表示する。これにより、実施の形態1に係るカメラ設置支援システム100は、カメラの設置環境に応じた撮像画像として被写体モデルHM1の位置に位置する人物の顔画像および全身画像と、車両のナンバープレート画像とを生成して表示し、カメラの撮像画像の画質に関するユーザによる仕様の確認を支援できる。つまり、ユーザは、カメラの設置環境に応じて生成された顔画像、全身画像およびナンバープレート画像を確認でき、これらの画像がユーザの要求する仕様を満たすか否かを確認できる。
また、実施の形態1に係るカメラ設置支援システム100におけるサーバS1は、1以上のカメラのうち、ユーザの端末装置P1に対する操作によって選択されたカメラの撮像領域の色を変更した合成画像を生成する。これにより、実施の形態1に係るカメラ設置支援システム100は、現在ユーザによって選択されているカメラを示すとともに、選択されているカメラの撮像領域の確認を容易にできる。
また、実施の形態1に係るカメラ設置支援システム100におけるサーバS1は、カメラの位置情報を示すアイコンをマップ画像に重畳する。これにより、実施の形態1に係るカメラ設置支援システム100は、ユーザによって配置されたカメラ位置の確認を容易にできる。
(実施の形態1の変形例1)
実施の形態1の変形例1では、実施の形態1におけるカメラの設定情報に対して、カメラの用途に応じた設定情報が予め設定されている場合のカメラ設置支援システム100について説明する。実施の形態1の変形例1に係るカメラ設置支援システム100において、ユーザは、カメラの用途に応じた設定情報の指定(選択)が可能となる。なお、実施の形態1の変形例1に係るカメラ設置支援システム100の構成は、実施の形態1に係るカメラ設置支援システム100が有する構成と略同一であるため、同一の構成については同一の符号を付与して説明を簡略化または省略し、異なる内容について説明する。
実施の形態1の変形例1におけるカメラデータベースDBは、カメラの用途に応じたカメラの設定情報のそれぞれを記憶する。なお、カメラの用途に応じた設定情報のそれぞれは、カメラごとの仕様に応じた設定情報であってもよい。
ここでいう用途は、例えば昼間の顔認証,夜間の顔認証,屋外における夜間の行動認証,画像解析によるナンバープレート認証,目視確認によるナンバープレート認証などである。なお、用途は細かく限定されず、単に顔認証,全身の行動認証,ナンバープレート認証などであってもよい。
また、カメラの用途に応じた設定情報は、例えば用途が顔認証である場合、顔認証のためのN段階(Nは整数)の画素密度(PPMあるいはPPF),照度など設定される。
実施の形態1の変形例1において、入力部13は、ユーザによるカメラの指定(選択)および指定(選択)されたカメラの用途に関する入力操作に基づく信号を生成し、生成された信号をプロセッサ11に出力する。生成された信号は、プロセッサ11に入力され、端末装置P1における通信部10からサーバS1における通信部20に送信され、プロセッサ21に出力される。プロセッサ21は、入力された信号に基づいて、ユーザによって指定(選択)されたカメラに関する情報と用途に応じたカメラの設定情報とをカメラデータベースDBに要求する。
なお、ユーザによるカメラの設定情報に関する入力操作は、カメラの用途が優先されるように表示されてもよい。このような場合、カメラ設置支援システム100は、カメラの用途に応じて必要な仕様を満たさないカメラを除外することができる。これにより、カメラ設置支援システム100は、カメラの用途に応じた仕様を満たすカメラのそれぞれをユーザに提示できる。つまり、ユーザは、カメラの撮像画像がユーザの要求する仕様を満たすか否かを確認できる。
図5は、実施の形態1の変形例1に係るカメラ設置支援システム100における用途設定に応じた撮像領域の算出手順例を示すフローチャートである。なお、図5に示す実施の形態1の変形例1に係る撮像領域の算出手順例は、実施の形態1に係るカメラ設置支援システム100の動作手順例において説明した同一の処理については簡略化または省略し、異なる内容について説明する。
実施の形態1の変形例1に係るステップSt1の処理において、ユーザは、表示されたカメラの設定画面のうち、カメラの設定情報についてカメラの用途に関する設定を入力する。なお、図5に示す算出手順例のうち、ステップSt1〜St3までの処理は、実施の形態1にかかる動作手順例と同一の処理であるため、説明を省略する。
サーバS1は、ユーザによるカメラの用途を設定されると、用途に応じて予め設定されたパラメータ(例えば、N段階に設定されたPPMあるいはPPF)を参照する。サーバS1は、参照されたパラメータに基づいて、N段階の撮像距離のそれぞれを算出する(St20)。
サーバS1は、算出されたN段階の撮像距離のそれぞれとカメラの設定情報あるいは環境条件とに基づいて、さらにN段階の撮像領域DN1,DN2,DN3のそれぞれを算出する。サーバS1は、算出されたN段階の撮像領域DN1〜DN3のそれぞれを、カメラCA4を中心とした円形状の領域として生成し、生成されたN段階の撮像領域DN1〜DN3のそれぞれをマップ画像IMGに重畳した合成画像を生成する(St21)。サーバS1は、生成された合成画像を端末装置P1に送信する。なお、この際端末装置P1に表示され、ユーザによって閲覧される合成画像は、マップ画像IMG上の指定(選択)された位置に配置されたカメラCA4とこのカメラの撮像領域DN1〜DN3のそれぞれとを含んで表示される。
なお、ここで算出あるいは表示される撮像領域は、実施の形態1の図3A〜図3Cのそれぞれに示すような扇状形状であってもよいし、実施の形態1の変形例1の図6に示すようなカメラを中心とする同心円であってもよい。さらに、撮像領域は、図6に示すように、カメラの設置角度に応じた扇状形状の撮像領域Ar4と円形状の撮像領域DN1,DN2,DN3のそれぞれとがともにマップ画像IMGに重畳され、表示されてもよい。
以降の処理において、カメラ設置支援システム100は、図2Bに示す動作手順に移行し、ユーザによって設定された環境条件に応じた各種撮像画像を生成する。
以上により、実施の形態1の変形例1に係るカメラ設置支援システム100は、カメラの用途を設定に基づいて、カメラの撮像距離および撮像領域を算出し、カメラの設置環境に応じた撮像画像を提示できる。また、ユーザは、カメラの用途が設定可能となることにより、カメラの設定情報を細かく設定することなく、容易にカメラの設置シミュレーションを実行でき、シミュレーション結果として各種撮像画像を取得できる。
図6は、カメラCA4の用途設定に対応した撮像領域DN1〜DN3のそれぞれの表示例である。図6に示すカメラCA4の用途について、ユーザが顔認証を用途として設定した場合について説明する。
図6に示すマップ画像IMGは、カメラCA4と、撮像領域Ar4と、複数の撮像領域DN1〜DN3のそれぞれと、被写体モデルHM4と、が重畳される。
プロセッサ21は、ユーザによって顔認証を用途として設定された場合、カメラデータベースDBを参照し、カメラCA4が顔認証に適した顔画像を撮像可能なパラメータとして3段階のPPM=240,300,630を設定する。なお、このパラメータは一例であり、これに限定されないことは言うまでもない。
カメラの撮像領域Ar4は、実施の形態1に示す動作手順によって算出された撮像領域である。また、被写体モデルHM4は、実施の形態1に示す動作手順によって生成され、撮像領域Ar4内に配置される。なお、撮像領域Ar4および被写体モデルHM4は、実施の形態1に係る変形例1において、必須でなく省略されてよい。
複数の撮像領域DN1〜DN3のそれぞれは、パラメータとして設定された3段階のPPM=240,300,630に基づいて、プロセッサ21により算出される。なお、撮像領域DN1は、PPM=630に対応する撮像領域である。撮像領域DN2は、PPM=300に対応する撮像領域である。撮像領域DN3は、PPM=240に対応する撮像領域である。
複数の撮像領域DN1〜DN3のそれぞれは、カメラCA4を中心とした同心円状にマップ画像IMGに重畳される。これにより、カメラ設置支援システム100は、ユーザによって指定(選択)されたカメラCA4が設定された用途(顔認証)に応じた撮像画像を撮像可能な撮像領域を可視化できる。
なお、図6には図示していないが、複数の撮像領域DN1〜DN3内のそれぞれには、被写体モデルが配置されてよい。さらに、これらの撮像領域のそれぞれおよび被写体モデルのそれぞれは、ユーザによって位置が変更可能であってよい。
また、用途が顔認証として設定される場合、表示される顔画像は、複数の撮像領域DN1〜DN3のそれぞれに配置された複数の被写体モデルのそれぞれの顔画像が同時に表示されてもよい。これにより、ユーザは、用途に応じたパラメータに基づくN段階の撮像領域のそれぞれにおける顔画像を容易に比較することができる。なお、異なる撮像領域内の被写体モデルの撮像画像は、上述した顔画像だけでなく、全身画像あるいはナンバープレート画像であってもよいことは言うまでもない。
以上により、実施の形態1の変形例1に係るカメラ設置支援システム100におけるサーバS1は、受信された設定情報に含まれるカメラの用途情報に基づいて、カメラの用途ごとに段階的に設定された設定パラメータを取得し、設定パラメータに対応する撮像領域DN1〜DN3のそれぞれを算出する。これにより、実施の形態1の変形例1に係るカメラ設置支援システム100は、用途に応じたカメラの設定情報に基づいて、撮像領域を算出できる。つまり、ユーザは、複雑なカメラの設定をすることなく、選択した用途および選択したカメラに応じた設定パラメータに対応する撮像領域を確認できる。
また、実施の形態1の変形例1に係るカメラ設置支援システム100で用いられる設定パラメータは、カメラの画素密度である。これにより、実施の形態1の変形例1に係るカメラ設置支援システム100は、用途に応じたカメラの画素密度に対応する撮像領域を算出できる。
また、実施の形態1の変形例1に係るカメラ設置支援システム100で用いられる設定パラメータは、環境条件の照度である。これにより、実施の形態1の変形例1に係るカメラ設置支援システム100は、カメラが設置される環境条件のうち、用途に応じたカメラの画素密度に対応する撮像領域を算出できる。
(実施の形態1の変形例2)
実施の形態1の変形例2では、実施の形態1に係るカメラの設定情報をダウンロード可能とするカメラ設置支援システム100について説明する。なお、実施の形態1の変形例2に係るカメラ設置支援システム100の構成は、実施の形態1および実施の形態1の変形例1に係るカメラ設置支援システム100と略同一であるため、同一の構成については同一の符号を付与して説明を簡略化または省略し、異なる内容について説明する。
図7は、実施の形態1の変形例2に係るカメラ設置支援システム100におけるカメラ設定情報リストLST1の出力手順例を示すフローチャートである。なお、図5に示す実施の形態1の変形例2に係るカメラ設定情報リストLST1の出力手順例は、実施の形態1に係るカメラ設置支援システム100の動作手順例において説明した同一の処理については簡略化または省略し、異なる内容について説明する。なお、図7に示す出力手順例のうち、ステップSt1〜St4までの処理は、実施の形態1に係る動作手順例と同一の処理であるため、説明を省略する。
サーバS1は、ユーザによってカメラリストボタンLSTが選択(つまり、入力操作)されると、ユーザによって設定されたカメラごとの設定情報をリストにしたカメラリスト表示画面を生成する。生成されたカメラリスト表示画面は、モニタ14に表示される(St30)。
具体的に、プロセッサ21は、ユーザの操作に基づいて、カメラリストボタンLSTが選択されると、ユーザによって設定されたカメラのそれぞれの設定情報に基づいて、カメラリスト表示画面を生成する。生成されたカメラリスト表示画面は、サーバS1における通信部20を介し、端末装置P1における通信部10に送信され、プロセッサ11に出力される。プロセッサ11は、入力されたカメラリスト表示画面をモニタ14に表示させる。
サーバS1は、さらにユーザによって出力ボタン(不図示)が選択(つまり、入力操作)されると、ステップSt30の処理において表示されたカメラ設定情報リストLST1(図8参照)をCSV形式でダウンロード可能に出力する(St31)。
以降の処理において、カメラ設置支援システム100は、図2Bに示す動作手順に移行し、ユーザによって設定された環境条件に応じた各種撮像画像を生成する。
以上により、実施の形態1の変形例2に係るカメラ設置支援システム100におけるプロセッサ11は、表示されたカメラリスト表示画面内のカメラリストを出力させる出力ボタン(不図示)をユーザによって選択されると、カメラのそれぞれの仕様および設定情報を含むカメラ設定情報リストLST1をCSV形式に変換して出力する。なお、このカメラ設定情報リストLST1は、ユーザによってダウンロードされ、カメラのそれぞれの注文票の作成などの用途で活用される。
図8は、カメラ設定情報リストLST1の出力例を示す図である。なお、図8に示すカメラ設定情報リストLST1は一例であり、これに限定されないことは言うまでもない。
カメラ設定情報リストLST1は、複数の項目のそれぞれからなるカメラの仕様あるいは設定情報を含んで構成される。図8に示すカメラ設定情報リストLST1は、項目「No.」と、項目「Model」と、項目「Title」と、項目「Resolution」と、項目「Compression」と、項目「Rate」と、項目「Quality」と、項目「PPM」と、項目「bps」と、を含む。
項目「No.」は、ユーザによって指定(選択)されたカメラに付与される識別番号である。例えば、図8に示す「No.」は、「1,2,3,4,5」のように付与され、出力される。なお、項目「No.」は、プロセッサ21によって付与され、ユーザの入力操作に基づいて変更可能である。
項目「Model」は、カメラの型式,型番などを示す。例えば、図8に示す「Model」は、「WV−S1131,WV−X4171,WV−X4171,WV−S6130,WV−S2550」のように出力される。
項目「Title」は、マップ画像IMG上に表示(重畳)されたカメラの名称であり、例えば「Camera1,Camera2,Camera3,Camera4,Camera5」のように出力される。項目「Title」は、ユーザの入力操作に基づいて変更可能である。項目「Title」は、プロセッサ21によって付与される名称であり、マップ画像IMG上に表示(重畳)されたカメラを識別可能にする。なお、項目「Title」は、ユーザの入力操作に基づいて変更可能である。
項目「Resolution」は、カメラの解像度を示す。例えば、図8に示す項目「Resolution」は、カメラごとの解像度が「1280×960,1280×1280,1280×1280,1280×960,1280×960」のように示され、出力される。
項目「Compression」は、カメラによって撮像された撮像映像の動画圧縮規格を示す。例えば、図8に示す項目「Compression」は、カメラごとの動画圧縮規格が「H.265,H.265,H.265,H.265,H.265」のように出力される。
項目「Rate」は、カメラにおける1秒間あたりの撮像画像枚数をips(images per second)で示す。例えば、図8に示す項目「Rate」は、カメラごとのipsが「10ips,10ips,10ips,10ips,10ips」のように出力される。なお、項目「Rate」は、フレームレート(FPS:frames per second)で示されてもよい。
項目「Quality」は、カメラの画質モードを示す。例えば、図8に示す「Quality」は、カメラごとの画質モードが「FQ(Fine Quality),FQ,FQ,FQ,FQ」のように出力される。
項目「PPM」は、カメラの画素密度を示す。例えば、図8に示す「PPM」は、カメラごとの画素密度が「160,163,163,321,262」のように出力される。
項目「bpm」は、カメラのデータ伝送速度(つまり、1秒間に伝送されるデータのビット数)を示す。例えば、図8に示す「PPM」は、カメラのデータ伝送速度が「640,768,768,640,640」のように出力される。
以上により、実施の形態1の変形例2に係るカメラ設置支援システム100におけるサーバS1は、設定されたカメラの設定情報をCSV形式に変換して、端末装置P1に送信し、端末装置P1は、変換されたカメラの設定情報を出力する。これにより、ユーザは、設定したカメラの設定情報をCSV形式で取得でき、注文票などのカメラの設定情報を用いた書類作成に使用できる。
(実施の形態1の変形例3)
実施の形態1の変形例3では、実施の形態1に係るカメラの配置方向を、マップ画像IMG内を撮像可能な方向に修正して配置するカメラ設置支援システム100について説明する。なお、実施の形態1の変形例3に係るカメラ設置支援システム100の構成は、実施の形態1および実施の形態1の変形例1,2に係るカメラ設置支援システム100と略同一であるため、同一の構成については同一の符号を付与して説明を簡略化または省略し、異なる内容について説明する。
図9は、実施の形態1の変形例3に係るカメラ設置支援システム100におけるカメラの配置方向の修正手順例を示すフローチャートである。なお、図9に示す実施の形態1の変形例3に係るカメラの配置方向の修正手順例は、実施の形態1に係るカメラ設置支援システム100の動作手順例において説明した同一の処理については簡略化または省略し、異なる内容について説明する。なお、図9に示すカメラの配置方向の修正手順例のうち、ステップSt1およびSt2における処理は、実施の形態1に係る動作手順例と同一の処理であるため、説明を省略する。
端末装置P1は、ユーザによるカメラの配置(具体的には、カメラの位置および方向)に関する入力操作を受け付ける(St3A)。端末装置P1は、ユーザの入力操作に応じた信号を生成する。端末装置P1は、生成された信号をサーバS1に送信する。
サーバS1は、受信された信号に基づくカメラの配置と、マップ画像IMGの領域、カメラの撮像領域、およびカメラの撮像領域内の被写体モデルと、を比較する(St3B)。
サーバS1は、ステップSt3Bにおける処理の結果、配置変更後のカメラの撮像領域および撮像領域内の被写体モデルが、マップ画像IMG外に位置する場合には、カメラの配置方向を修正する。具体的に、サーバS1は、配置変更後のカメラ撮像領域および撮像領域内の被写体モデルがマップ画像IMG上に位置するようにカメラが配置される方向を修正する(St3C)。具体的に、サーバS1は、カメラがMAP画像上における左上に配置された場合、カメラの配置方向(つまり、撮像領域の配置方向)が右下となるように修正し、カメラが左下に配置された場合、カメラの配置方向(つまり、撮像領域の配置方向)が右上となるように修正し、カメラが右上に配置された場合、カメラの配置方向(つまり、撮像領域の配置方向)が左下となるように修正し、カメラが右下に配置された場合、カメラの配置方向(つまり、撮像領域の配置方向)が左上となるように修正する。
サーバS1は、ステップSt3Cの処理における配置方向の修正後のカメラ、カメラの撮像領域および被写体モデルをマップ画像IMG上に重畳した合成画像を生成し、端末装置P1に送信する。
以降の処理において、カメラ設置支援システム100は、図2Bに示す動作手順に移行し、ユーザによって設定された環境条件に応じた各種撮像画像を生成する。
以上により、実施の形態1の変形例3に係るカメラ設置支援システム100は、カメラがマップ画像IMG外の領域しないようにカメラの配置方向を修正できる。
図10は、カメラの配置方向の修正例を示す図である。なお、図10に示す画面Sr4のうち、図3A〜図3Cのそれぞれにおいて説明した符号には、同一の符号を付与し、説明を省略する。
図10に示す各種撮像画像(つまり、顔画像FA6、全身画像PP6およびナンバープレート画像LP6)のそれぞれは、カメラCA6によって撮像されるとシミュレーションされた撮像画像のそれぞれである。また、画素密度T6は、PPFで算出され、カメラCA6によって撮像される各種撮像画像のそれぞれの画素密度を示す。
図10に示すマップ画像IMGには、4つのカメラCA6,CA7,CA8,CA9のそれぞれが配置方向を修正され、重畳されている。例えば、カメラ設置支援システム100は、カメラCA6の配置方向を右下に修正し、カメラCA7の配置方向を右上に修正し、カメラCA8の配置方向を左下に修正し、カメラCA9の配置方向を左上に修正して、マップ画像IMG上に重畳している。位置するように配置方向を修正する。
以上、各実施の形態について説明したが、実施の形態1、実施の形態1の変形例1、実施の形態1の変形例2および実施の形態1の変形例3に示す発明は、カメラ設置支援システム100によって同時に実現可能である。
以上により、実施の形態1の変形例3に係るカメラ設置支援システム100におけるサーバS1は、受信されたマップ画像とカメラの撮像領域および被写体モデルの位置とを比較し、カメラが選択された時にカメラの撮像領域の全域および被写体モデルがマップ画像外に位置する場合、カメラの撮像領域および被写体モデルがマップ画像内に位置するようにカメラの配置方向を修正し、マップ画像に重畳する。これにより、実施の形態1の変形例3に係るカメラ設置支援システム100は、撮像領域の対象としてのマップ画像外を向くように配置されたカメラの配置方向を修正できるため、ユーザによるカメラの配置方向の修正の手間を省略できる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、カメラの設置環境に応じた撮像画像を提示し、カメラの撮像画像の画質に関するユーザによる仕様の確認を支援するカメラ設置支援システムとして有用である。
10,20 通信部
11,21 プロセッサ
12,22 メモリ
13 入力部
14 モニタ
DB カメラデータベース
Ar1,Ar2,Ar3,Ar4,Ar6,Ar7,Ar8,Ar9,DN1,DN2,DN3 撮像領域
CA1,CA2,CA3,CA4,CA6,CA7,CA8,CA9 カメラ
HM1,HM2,HM3,HM4,HM6,HM7,HM8,HM9 被写体モデル
IMG マップ画像
LP1,LP2,LP3,LP6 ナンバープレート画像
LST1 カメラ設定情報リスト
FA1,AF11,FA12,FA13,FA14,FA15,FA2,FA3,FA6 顔画像
P1 端末装置
PP1,PP2,PP3,PP6 全身画像
T1,T2,T3,T6 画素密度
S1 サーバ

Claims (12)

  1. ユーザによる入力操作を受け付け可能な端末装置とサーバとが互いに通信可能に接続されたカメラ設置支援システムであって、
    前記端末装置は、
    前記ユーザの入力操作に基づくカメラの仕様情報を含む設定情報と前記カメラが設置される環境条件と前記カメラが設置されるマップ画像とを前記サーバに送信し、
    前記サーバは、
    受信された前記設定情報および前記環境条件に基づいて、前記マップ画像上の前記カメラの撮像領域を算出し、
    算出された前記撮像領域内に、前記カメラの撮像対象となる被写体モデルを所定位置に配置し、前記撮像領域および前記被写体モデルを前記マップ画像に重畳した合成画像を生成し、
    前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置における前記被写体モデルの顔画像および全身画像を生成し、
    生成された前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを前記端末装置に送信し、
    前記端末装置は、
    受信された前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを表示する、
    カメラ設置支援システム。
  2. 前記サーバは、
    前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置に車両が配置された場合の前記車両のナンバープレート画像を生成して、前記端末装置に送信し、
    前記端末装置は、
    受信された前記ナンバープレート画像を表示する、
    請求項1に記載のカメラ設置支援システム。
  3. 前記サーバは、
    前記ユーザの前記端末装置に対する操作によって選択されたカメラによって撮像される前記顔画像と前記全身画像と前記ナンバープレート画像とを生成して、前記端末装置に送信し、
    前記端末装置は、
    受信された前記顔画像と前記全身画像と前記ナンバープレート画像とを表示する、
    請求項2に記載のカメラ設置支援システム。
  4. 前記サーバは、
    1以上の前記カメラのうち、前記ユーザの前記端末装置に対する操作によって選択されたカメラの撮像領域の色を変更した合成画像を生成する、
    請求項1に記載のカメラ設置支援システム。
  5. 前記サーバは、
    受信された前記設定情報に含まれる前記カメラの用途情報に基づいて、前記カメラの用途ごとに段階的に設定された設定パラメータを取得し、
    前記設定パラメータに対応する撮像領域を算出する、
    請求項1に記載のカメラ設置支援システム。
  6. 前記設定パラメータは、前記カメラの画素密度である、
    請求項5に記載のカメラ設置支援システム。
  7. 前記設定パラメータは、前記環境条件の照度である、
    請求項5に記載のカメラ設置支援システム。
  8. 前記サーバは、
    受信された前記マップ画像と前記カメラの撮像領域および前記被写体モデルの位置とを比較し、
    前記カメラが選択された時に前記カメラの撮像領域の全域および前記被写体モデルが前記マップ画像外に位置する場合、前記カメラの撮像領域および前記被写体モデルが前記マップ画像内に位置するように前記カメラの配置方向を修正し、前記マップ画像に重畳する、
    請求項1に記載のカメラ設置支援システム。
  9. 前記サーバは、
    設定された前記カメラの設定情報をCSV形式に変換して、前記端末装置に送信し、
    前記端末装置は、
    変換された前記カメラの設定情報を出力する、
    請求項1に記載のカメラ設置支援システム。
  10. 前記サーバは、
    前記カメラの位置情報を示すアイコンを前記マップ画像に重畳する、
    請求項1に記載のカメラ設置支援システム。
  11. ユーザによる入力操作を受け付け可能な端末装置とサーバとが互いに通信可能に接続されたカメラ設置支援方法であって、
    前記ユーザの入力操作に基づくカメラの仕様情報を含む設定情報と前記カメラが設置される環境条件とに基づいて、前記カメラが配置されるマップ画像上の前記カメラの撮像領域を算出し、
    算出された前記撮像領域内に、前記カメラの撮像対象となる被写体モデルを所定位置に配置し、前記撮像領域および前記被写体モデルを前記マップ画像に重畳した合成画像を生成し、
    前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置における前記被写体モデルの顔画像および全身画像を生成し、
    前記合成画像と前記被写体モデルの前記顔画像および前記全身画像とを表示する、
    カメラ設置支援方法。
  12. ユーザによる入力操作を受け付け可能な端末装置と通信可能に接続されたサーバにより実行されるカメラ設置支援プログラムであって、
    前記ユーザの入力操作に基づくカメラの仕様情報を含む設定情報と前記カメラが設置される環境条件とを取得するステップと、
    取得された前記設定情報と前記環境条件とに基づいて、前記カメラが配置されるマップ画像上の前記カメラの撮像領域を算出するステップと、
    算出された前記撮像領域内に、前記カメラの撮像対象となる被写体モデルを所定位置に配置し、前記撮像領域および前記被写体モデルを前記マップ画像に重畳した合成画像を生成するステップと、
    前記設定情報および前記環境条件に基づいて、前記カメラによって撮像されると推定される前記所定位置における前記被写体モデルの顔画像および全身画像を生成して出力するステップと、を実現させるための、
    カメラ設置支援プログラム。
JP2019163100A 2019-09-06 2019-09-06 カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム Active JP6936288B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019163100A JP6936288B2 (ja) 2019-09-06 2019-09-06 カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム
US17/005,922 US11373334B2 (en) 2019-09-06 2020-08-28 Camera setting assist system and camera setting assist method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163100A JP6936288B2 (ja) 2019-09-06 2019-09-06 カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム

Publications (2)

Publication Number Publication Date
JP2021044616A JP2021044616A (ja) 2021-03-18
JP6936288B2 true JP6936288B2 (ja) 2021-09-15

Family

ID=74849452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163100A Active JP6936288B2 (ja) 2019-09-06 2019-09-06 カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム

Country Status (2)

Country Link
US (1) US11373334B2 (ja)
JP (1) JP6936288B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113467458A (zh) * 2021-07-06 2021-10-01 鼎豪智能装备科技(重庆)有限公司 一种信息交互方法、***、可读存储介质及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681195B1 (en) * 2000-03-22 2004-01-20 Laser Technology, Inc. Compact speed measurement system with onsite digital image capture, processing, and portable display
US8034165B2 (en) 2005-06-09 2011-10-11 Yokohama City University Single-crystalline organic carboxylic acid metal complex, process for producing the same, and use thereof
US9811738B2 (en) * 2012-12-06 2017-11-07 Nec Corporation Appearance presentation system, method, and program
JP6265132B2 (ja) 2012-12-06 2018-01-24 日本電気株式会社 画像認識処理適性表示システム、方法およびプログラム
US10380877B2 (en) * 2014-08-05 2019-08-13 Overview Technologies, Inc. Community security system using intelligent information sharing
JP6537459B2 (ja) 2016-01-27 2019-07-03 三菱電機ビルテクノサービス株式会社 防犯カメラ設置支援装置及びプログラム
JP6799779B2 (ja) * 2016-10-07 2020-12-16 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法
US10960173B2 (en) * 2018-11-02 2021-03-30 Sony Corporation Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis

Also Published As

Publication number Publication date
US11373334B2 (en) 2022-06-28
JP2021044616A (ja) 2021-03-18
US20210074022A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
JP6587113B2 (ja) 画像処理装置及び画像処理方法
KR102099635B1 (ko) 카메라의 가이드 제공 방법 및 그 전자 장치
US9398214B2 (en) Multiple view and multiple object processing in wide-angle video camera
US9602700B2 (en) Method and system of simultaneously displaying multiple views for video surveillance
KR100839090B1 (ko) 영상기반 화재감시시스템
KR101871764B1 (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
US11792552B2 (en) Method for obtaining information about a luminaire
KR102060045B1 (ko) 열분포 측정이 가능한 화재감지장비 및 그 시스템
KR20130130544A (ko) 감시 영상 표시 방법 및 시스템
KR101297237B1 (ko) 재난 감시 시스템 및 방법
WO2013136399A1 (ja) 情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム
JP6936288B2 (ja) カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム
CN109286829B (zh) 显示屏播放***、显示屏检查装置及检查方法
US11172111B2 (en) Devices and methods for security camera installation planning
JP2006060425A (ja) 画像生成方法および装置
KR20200137744A (ko) 감시시스템, 그 시스템에서의 어안 카메라를 이용한 ptz 카메라 제어 방법
JP2016123004A (ja) 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
KR102168662B1 (ko) 보행자 가이드 모듈, 이의 운영 방법 및 이를 포함하는 안내 시스템
KR20060102967A (ko) 울타리 경계 시스템
KR102080702B1 (ko) 영상이미지 정보 클라우드 기반의 3d 실내공간 이미지 자동 생성시스템과 생성방법
EP2477156A1 (en) An integrated method for camera planning and positioning
CN110413850B (zh) 一种现场设备的信息处理方法和电子设备
CN115022661A (zh) 一种视频直播环境监测分析调控方法、设备及计算机存储介质
KR101294840B1 (ko) 감시 카메라 제어 시스템
US10986272B2 (en) Image capturing device and captured image display method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210129

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6936288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250