JP2020198468A - Imaging apparatus, imaging method, and program - Google Patents
Imaging apparatus, imaging method, and program Download PDFInfo
- Publication number
- JP2020198468A JP2020198468A JP2019101717A JP2019101717A JP2020198468A JP 2020198468 A JP2020198468 A JP 2020198468A JP 2019101717 A JP2019101717 A JP 2019101717A JP 2019101717 A JP2019101717 A JP 2019101717A JP 2020198468 A JP2020198468 A JP 2020198468A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- surveillance camera
- tracking target
- unit
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置、撮像方法及びプログラムに関する。 The present invention relates to an imaging device, an imaging method and a program.
近年、ネットワークカメラを利用した監視システムが広く普及している。
ネットワークカメラは、大規模な公共機関や量販店における監視カメラとして用いられる等、幅広い分野で利用されており、様々な運用方法がある。ネットワークカメラは、運用形態に合わせるために様々な機能的特徴をもったものが存在する。例えば、パン・チルトといった撮影方向を自在に変更できるネットワークカメラや、撮影方向は変更できないが高倍率のズーム撮影が可能なネットワークカメラ等が存在する。このようなネットワークカメラの中には、魚眼レンズを搭載し、広い範囲を一度に監視可能なネットワークカメラ(全方位カメラ)が存在する。
In recent years, surveillance systems using network cameras have become widespread.
Network cameras are used in a wide range of fields, such as being used as surveillance cameras in large-scale public institutions and mass retailers, and there are various operation methods. There are network cameras that have various functional features in order to match the operation mode. For example, there are network cameras such as pan / tilt that can freely change the shooting direction, network cameras that cannot change the shooting direction but can perform high-magnification zoom shooting, and the like. Among such network cameras, there is a network camera (omnidirectional camera) equipped with a fisheye lens and capable of monitoring a wide range at once.
全方位カメラは、非常に広い視野角を持つ一方で、カメラから離れた場所では割り当てられた画素数が少なく、解像度が落ちてしまう。そのため、全方位カメラは、人の顔や車番等、詳細な情報を取得することには向いていない。そのような欠点を補うため、全方位カメラとパン・チルト及びズーム機能を持つカメラ(PTZ型監視カメラ)と連携させる機能を持つ監視システムが、特許文献1に開示されている。この監視システムは、全方位カメラで広い範囲を一度に監視し、その映像中で特に注視すべきオブジェクトは、PTZ型監視カメラで拡大して撮像し、詳細情報を取得する。
このような監視システムでは、一般的にカメラの設置時にカメラ間で連携を行うためのキャリブレーション作業を行い、同一の世界座標系の中でカメラ間の相互の位置姿勢と追尾対象の座標を共有することで広範囲かつ詳細な情報を網羅した映像をユーザに配信する。
While the omnidirectional camera has a very wide viewing angle, the number of pixels allocated is small at a place far from the camera, and the resolution drops. Therefore, the omnidirectional camera is not suitable for acquiring detailed information such as a person's face and a car number. In order to make up for such a defect,
In such a monitoring system, calibration work is generally performed for cooperation between cameras when the cameras are installed, and the mutual position / orientation between the cameras and the coordinates of the tracking target are shared in the same world coordinate system. By doing so, a video that covers a wide range of detailed information is distributed to the user.
特許文献1に開示された技術では、第1のカメラと第2のカメラで撮影した画像間で世界座標系における座標を対応付けした制御LUT(Look−Up Table)を構築している。そして、第1のカメラで撮影した画像において指定された注目領域(ROI:Region Of Interest)と制御LUTによって第2のカメラの撮影方向を決定する、というカメラ連携方法が提案されている。
In the technique disclosed in
しかしながら、特許文献1に開示されたカメラ連携では、第1のカメラで指定されたROIは、ある軸方向を確定することはできるが、軸上のどの位置に指定された物体が存在するのか第2のカメラで特定することができない。このため、特許文献1に開示された技術では、カメラ連携のための制御LUTを構築し、第1のカメラと第2のカメラにおける画像的な特徴や座標を対応付けすることで、軸上における座標を特定している。制御LUTを構築する方法としては、たとえば人の手によって画像を見比べ、対応点を入力する方法が考えられるが、この方法では、多くの時間がかかり、人的負荷が大きくなる。
また、レーザレンジスキャナや複眼のカメラ等を用いることで、三次元空間における物体の位置特定をすることが可能であるが、機材の追加が必要となるため、コストや設置の手間等が発生する。
However, in the camera cooperation disclosed in
In addition, it is possible to identify the position of an object in a three-dimensional space by using a laser range scanner, a compound-eye camera, etc., but since it is necessary to add equipment, costs and labor for installation are incurred. ..
本発明は上述の課題に鑑みて成されたものであり、オブジェクトの位置を容易に特定することができる撮像装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging device capable of easily specifying the position of an object.
上記の課題を解決するため、本発明に係る撮像装置のある態様によれば、第1の撮像手段と、前記第1の撮像手段の撮像方向を変更する変更手段と、オブジェクトの方向を取得する取得手段と、前記取得手段が取得した前記オブジェクトの方向に沿って前記第1の撮像手段の撮像方向を変更するように前記変更手段を制御する制御手段と、前記制御手段による前記変更手段の制御に応じた前記第1の撮像手段の撮像画像に基づいて前記オブジェクトの位置を特定する特定手段と、を備える撮像装置が提供される。 In order to solve the above problems, according to an aspect of the image pickup apparatus according to the present invention, a first image pickup means, a change means for changing the image pickup direction of the first image pickup means, and an object direction are acquired. The acquisition means, the control means for controlling the changing means so as to change the imaging direction of the first imaging means along the direction of the object acquired by the acquisition means, and the control of the changing means by the control means. An imaging device including a specific means for specifying the position of the object based on an image captured by the first imaging means according to the above is provided.
本発明によれば、オブジェクトの位置を容易に特定することができる。 According to the present invention, the position of the object can be easily specified.
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する各実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に必ずしも限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の対象等については、同じ符号を付して説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. It should be noted that each embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. Is not necessarily limited to the embodiment of. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention. The same objects and the like will be described with the same reference numerals.
(実施形態1)
図1は、実施形態1の監視システムの構成例を示している。
本実施形態の監視システムは、主にパン、チルト及びフォーカス、ズーム機構を持つPTZ型監視カメラ1と、広角型監視カメラ2と、クライアント装置3を備えている。PTZ型監視カメラ1、広角型監視カメラ2、クライアント装置3は、ネットワーク4に接続されており、相互に通信が可能である。また、PTZ型監視カメラ1と広角型監視カメラ2は、同一の世界座標系における互いの位置を保持している。ネットワーク4は、PTZ型監視カメラ1、広角型監視カメラ2、クライアント装置3の間の通信が可能であれば、有線でも無線でもよく、特に限定されない。また、PTZ型監視カメラ1は、本実施形態では1台としているが、2台以上設置されていてもよい。
(Embodiment 1)
FIG. 1 shows a configuration example of the monitoring system of the first embodiment.
The surveillance system of the present embodiment mainly includes a PTZ
図2は、本実施形態における監視システムの構成例を示すブロック図である。
PTZ型監視カメラ1は、撮像部11と、画像処理部12と、撮像制御部13と、システム制御部14と、パン駆動部18と、チルト駆動部19と、PT(パン、チルト)制御部17と、光学系制御部20と、通信部15と、を備えている。PTZ型監視カメラ1は、さらに、光学系駆動部21と、候補座標保持部24と、追尾対象特定部25とを備えている。
FIG. 2 is a block diagram showing a configuration example of the monitoring system according to the present embodiment.
The PTZ
撮像部11は、例えばレンズ及び撮像素子を備えており、被写体の撮像及び電気信号への変換を行う。画像処理部12は、撮像部11によって変換された電気信号に画像処理、圧縮符号化処理を行い、画像データを生成し、システム制御部14に供給する。撮像制御部13は、システム制御部14から指示に基づいて露出等の撮像部11の設定を変更する。
The
パン駆動部18は、例えばパン動作を行うパン駆動機構、その駆動源のモータ、パン駆動機構の角度を検出する角度センサ等を備えており、モータが駆動されることにより、パン駆動機構がパン方向に駆動する。チルト駆動部19は、例えばチルト動作を行うチルト駆動機構、その駆動源のモータ、チルト駆動機構の角度を検出する角度センサ等を備えており、モータが駆動されることにより、チルト駆動機構がチルト方向に駆動する。PT制御部17は、システム制御部14から供給された指示信号に基づいて、パン駆動部18、チルト駆動部19、及び光学系駆動部21を制御する。また、PT制御部17は、パン駆動部18、チルト駆動部19、光学系駆動部21のセンサ情報を解析し、ピッチ角、ヨー角を取得することができる。PT制御部17は、システム制御部14から供給された指示信号に基づいて、ピッチ角、ヨー角をシステム制御部14に供給する。
The
光学系駆動部21は、フォーカスレンズ、ズームレンズの駆動部及びモータ、ズームレンズの位置を検出するセンサ等を備え、モータが駆動されることによりズームレンズが光軸方向に移動して焦点距離を変更する。また、光学系駆動部21は、モータが駆動されることによりフォーカスレンズが光軸方向に移動して焦点調節を行う。光学系制御部20は、システム制御部14から供給された指示信号に基づいて光学系駆動部21を制御する。また、光学系制御部20は、フォーカスを制御する合焦機能を有しており、指定された焦点距離において合焦させる制御を行う。さらに、光学系駆動部21は、センサの情報を解析し、現在のズーム倍率や絞りを計算し、システム制御部14に供給する。
The optical
システム制御部14は、軸方向受信部16と、追尾対象走査部22と、評価値算出部23とを備えている。システム制御部14は、通信部15およびネットワーク4を介して、生成された画像データをクライアント装置3に送信する。また、システム制御部14は、ネットワーク4および通信部15を介して供給されたカメラ制御コマンドを解析し、当該カメラ制御コマンドに応じた処理を行う。具体的には、例えば、システム制御部14は、画像処理部12に対する画質調整の設定、PT制御部17に対するパン・チルト及びズーム動作の設定といった撮像パラメータ設定の指示等を行う。さらに、システム制御部14は、広角型監視カメラ2から軸方向51(図3)に関する情報を受信し、システム制御部14内の軸方向受信部16に供給する。
The
追尾対象走査部22は、軸方向受信部16が受信した軸方向51に関する情報に基づいて、PT制御部17と光学系制御部20を制御して撮像方向(視野)を変更しながら走査を行う。具体的には、追尾対象走査部22は、PTZ型監視カメラ1の撮像範囲が軸方向51上で移動するように、PT制御部17と光学系制御部20を制御する。さらに、追尾対象走査部22は、取得した画像から評価値を算出する評価値算出部23から取得した評価値に基づいて、追尾対象のオブジェクト(以下、単に追尾対象という。)と判断された座標を関連情報と共に候補座標保持部24に保存する。追尾対象特定部25は、候補座標保持部24に保存された追尾対象の候補から追尾対象を特定し、システム制御部14に通知する。保存された追尾対象を特定する方法については、図8を用いて後述する。
The tracking
広角型監視カメラ2は、撮像部31と、画像処理部32と、システム制御部33と、通信部35と、撮像装置相対位置保持部36とを備えている。
撮像部31は、レンズ及び撮像素子から構成され、被写体の撮像及び電気信号への変換を行う。また、撮像部31は、半球状の視野角(画角)を有する広角レンズを備えている。画像処理部32は、撮像部31によって変換された電気信号に画像処理、圧縮符号化処理を行い、画像データを生成し、システム制御部33に供給する。
The wide-
The
システム制御部33は、軸方向送信部37と追尾対象受信部38を備えている。システム制御部33は、生成された画像データを通信部35およびネットワーク4を介してクライアント装置3に送信する。また、システム制御部33は、ネットワーク4および通信部35を介して供給されたカメラ制御コマンドを解析し、コマンドに応じた処理行う。例えば、システム制御部33は、画像処理部32に対する画質調整の設定等を行う。また、撮像装置相対位置保持部36は、公知の手段を用いてキャリブレーションを行い、PTZ型監視カメラ1と同一の座標系における座標を保持する。追尾対象受信部38は、ネットワーク4および通信部35を介してクライアント装置3から受信した注目領域(ROI:Region Of Interest)に応じて、撮像部31からの画像中の座標を実空間の座標に変換する。また、軸方向送信部37は、追尾対象受信部38による変換結果と撮像装置相対位置保持部36が保持している座標から追尾対象の軸方向を計算し、当該軸方向をネットワーク4および通信部35を介してPTZ型監視カメラ1に送信する。なお、本実施形態では、クライアント装置3から追尾対象をROIとして指示しているが、広角型監視カメラ2の画像中のオブジェクトの認識を行い、認識結果に基づいて追尾対象を決定するようにしてもよい。
The
クライアント装置3は、表示部41と、入力部42と、システム制御部43と、通信部45とを備えている。表示部41は、液晶表示装置等であり、ネットワーク4および通信部45を介してPTZ型監視カメラ1、広角型監視カメラ2から受信した画像データの表示等を行う。また、表示部41は、PTZ型監視カメラ1及び広角型監視カメラ2のカメラ制御を行うためのグラフィックユーザインターフェース(以下、GUIと称する。)等を表示する。このカメラ制御は、例えば、PTZ型監視カメラ1のズーム率の設定、パン・チルト方向の変更、PTZ型監視カメラ1及び広角型監視カメラ2の撮像等である。入力部42は、キーボード、マウス等のポインティング・デバイス等を備えており、クライアント装置3のユーザは、入力部42を介して上述のGUIを操作し、指示を入力する。システム制御部43は、ユーザからの指示と、ネットワーク4および通信部45を介してPTZ型監視カメラ1や広角型監視カメラ2から受信した情報に基づいて表示部41を制御する。また、システム制御部43は、通信部45からネットワーク4を介してPTZ型監視カメラ1や広角型監視カメラ2に送信するデータのセットの作成等の処理を実行する。
The
図3は、図1の監視システムのPTZ型監視カメラ1および広角型監視カメラ2の配置と、広角型監視カメラ2から指定した追尾対象53が存在する軸方向51を示す概略図である。PTZ型監視カメラ1と、広角型監視カメラ2は、ネットワーク4を介して通信可能な状態となっており、且つ、クライアント装置3と通信可能な状態となっている。広角型監視カメラ2は、撮像された映像をクライアント装置3に送信し、クライアント装置3は、表示部41に受信した映像を表示し、ユーザが入力部42から追尾対象の存在する領域を指定した結果をROIとして広角型監視カメラ2に送る。広角型監視カメラ2は、送信されてきたROIと撮像装置相対位置保持部36が保持している広角型監視カメラ2の位置を用いて、軸座標を指示する軸座標指示として、PTZ型監視カメラと共通の世界座標系における軸方向51を計算する。さらに、クライアント装置3は、広角型監視カメラ座標72(図5)と、世界座標系における軸方向51上に存在する任意の座標である任意軸上座標82を軸方向データとしてPTZ型監視カメラ1に送信する。
FIG. 3 is a schematic view showing the arrangement of the PTZ
これらの情報を受信すると、PTZ型監視カメラ1は、軸方向受信部16が受信した軸方向51から、図5の広角型監視カメラ座標72で結像し、かつ、被写界深度が所定の閾値より浅くなるように、PT制御部17と光学系制御部20を制御する。これにより、PTZ型監視カメラ1を指向させた位置を初期位置として、追尾対象走査部22は、軸方向51上に広角型監視カメラ座標72から遠ざかるように、PT制御部17を制御し、軸方向51上の点で合焦するように光学系制御部20を制御する。また、本実施形態では、ユーザが広角型監視カメラ2の画像中の指向対象のオブジェクト(追尾対象53)を指定するため、広角型監視カメラ座標72を走査の初期位置とすることで、ユーザが指定したオブジェクトを捉える時間が速くなる。これにより、PTZ型監視カメラ1の撮像方向をオブジェクトに容易に向けることができる。
Upon receiving this information, the PTZ
上述の制御を行う際に、評価値算出部23は、PTZ型監視カメラ1の撮像範囲52で取得された画像を用いて、解像度を評価する評価値を計算する。物体が存在しない画像から、物体を捉えた画像に変化すると、解像度に関する評価値が変動するため、評価値が変動した量や変動の度合いを基準とすることで、広角型監視カメラ2の画像中で指示した追尾対象53が存在する座標を特定可能となる。なお、本実施形態では、評価値算出部23が算出する評価値は、例えばMTF(Modulation Transfer Function)を用いるが、コントラスト値等、解像度を評価することが可能な数値ならばよい。
When performing the above-mentioned control, the evaluation
図4は、広角型監視カメラ2の画像中で追尾対象53を指定する際にクライアント装置3の表示部41に表示される画面の例を示している。映像61は、広角型監視カメラ2によって撮像中の映像であり、ネットワーク4を介してクライアント装置3の表示部41に表示されている。追尾対象53は、例えば、ユーザが、クライアント装置3の入力部42に接続されたマウスによってマウスポインタ62で指示し、クリック操作することで指定される。指定された追尾対象53のROIは、ネットワーク4を介して広角型監視カメラ2に送信され、広角型監視カメラ2上で軸方向51としてPTZ型監視カメラ1に送信される。
FIG. 4 shows an example of a screen displayed on the
図5は、広角型監視カメラ2で設定された軸方向51とPTZ型監視カメラ1を三次元的な領域として模式図で示したものである。
広角型監視カメラ2の座標である広角型監視カメラ座標72から、追尾対象53の座標である追尾対象座標73に向かう矢印が軸方向51に該当する。上述のようにROIが指定されると、広角型監視カメラ2は、軸方向51上に存在する点である任意軸上座標82と広角型監視カメラ座標72を、軸方向51を示す情報としてPTZ型監視カメラ1に送信する。PTZ型監視カメラ1は、軸方向51を示す情報に応じて軸方向51を示す1次の直線式を求め、広角型監視カメラ座標72を始点として広角型監視カメラ座標72から遠ざかるように、PT制御部17を制御し、軸方向51上の走査を行って撮像を行う。走査中のPTZ型監視カメラ1は、自身の世界座標系における座標であるPTZ型監視カメラ座標71と走査している座標である走査対象座標74の距離であるPTZ型監視カメラ走査位置距離75から、合焦する距離を求める。さらに、走査中のPTZ型監視カメラ1は、光学系制御部20を制御して、軸方向51上に合焦し、かつ被写界深度が浅くなるように(すなわち、狭い範囲でのみ合焦するように)フォーカスを制御する。これにより、合焦して撮像している範囲であるPTZ型監視カメラ撮像範囲52が、追尾対象53の評価値に変化を発生させ、追尾対象53をPTZ型監視カメラ1で特定可能となる。
FIG. 5 is a schematic view showing the
The arrow from the wide-angle surveillance camera coordinates 72, which is the coordinates of the wide-
図6は、軸方向のデータの例を示す図である。
軸方向データテーブル81には、広角型監視カメラ2の座標情報として、PTZ型監視カメラ1と同一の世界座標系における広角型監視カメラ座標72が格納されている。また、軸方向データテーブル81には、クライアント装置3から送信されてきたROIに基づいて計算された任意軸上座標82が格納されている。これらの情報を含む軸方向のデータが、PTZ型監視カメラ1に供給されることで、PTZ型監視カメラ1で軸方向51を一意に特定することが可能となる。
FIG. 6 is a diagram showing an example of data in the axial direction.
In the axial data table 81, the wide-angle surveillance camera coordinates 72 in the same world coordinate system as the
図7は、追尾対象の候補情報のデータの例を示す図である。
追尾対象候補情報テーブル85には、PTZ型監視カメラ1内の候補座標保持部24に保存されている追尾対象53の候補となった座標に関連した情報が格納されている。追尾対象候補情報テーブル85には、追尾対象53の候補として特定された座標である対象候補座標86と、特定において検出された評価値と画像的な特徴を表す値を含む特徴量行列87と、特定された時刻を示す検出時刻88とが対応付けて格納されている。
FIG. 7 is a diagram showing an example of data of candidate information to be tracked.
The tracking target candidate information table 85 stores information related to the coordinates that are candidates for the tracking
図8は、広角型監視カメラ2から指定された軸方向51をPTZ型監視カメラ1が受信し、PTZ型監視カメラ1で追尾対象53を特定する処理の例を示すフローチャートである。
まず、ステップS1において、広角型監視カメラ2の追尾対象受信部38は、図4の画面に対して指定された追尾対象の情報(ROI)をクライアント装置3から受信する。続くS2において、広角型監視カメラ2の軸方向送信部37は、任意軸上座標82と広角型監視カメラ座標72を軸方向データテーブル81に変換し、PTZ型監視カメラ1に送信する。
FIG. 8 is a flowchart showing an example of a process in which the PTZ
First, in step S1, the tracking
次に、ステップS3において、軸方向を受信すると、PTZ型監視カメラ1は、S4において、図5で示した軸方向51上を走査し、追尾対象53を特定する処理である走査軸走査処理を行う。なお、走査軸走査処理の詳細については、図9を用いて後述する。ステップS5において、PTZ型監視カメラ1の追尾対象特定部25は、保存されている複数の追尾対象候補情報テーブル85の検出時刻88を比較し、最初に検出された追尾対象候補を追尾対象と特定する。続くステップS6において、PTZ型監視カメラ1のシステム制御部14は、追尾対象53の特定が完了したことを広角型監視カメラ2に通知する。この通知を受信すると、広角型監視カメラ2は、S7において、クライアント装置3に追尾対象の特定が完了したことを通知して処理を完了する。
Next, when the axial direction is received in step S3, the PTZ
図9は、PTZ型監視カメラ1で行う走査軸走査処理の例を示すフローチャートである。
まず、ステップS11において、追尾対象走査部22は、PT制御部17を制御して始点座標である広角型監視カメラ座標72の方向に撮像部11を指向させる。ステップS12において、追尾対象走査部22は、軸方向51上の点で合焦し、かつ、被写界深度が最も浅くなるように光学系制御部20を制御する。ステップS13において、評価値算出部23は、合焦した状態で取得した画像から評価値を算出する。ステップS14において、追尾対象走査部22は、算出された評価値がある基準を満たしているか否かを判定する。算出された評価値がある基準を満たしている場合には、追尾対象走査部22は、続くステップS15において、追尾対象候補として、対応する追尾対象候補の座標等を追尾対象候補情報テーブル85のデータ構造に従って候補座標保持部24に保存する。評価値がある基準を満たしていない場合には、ステップS14からステップS16に進む。評価値が満たす基準について、本実施形態では、例えばMTF値がある一定の数値を超えたか否かとしているが、MTF値の極点等の他の条件を基準としてもよい。本実施形態では、特徴量行列87として、例えば評価値のみを保存してもよいが、その他の処理に使用する画像処理の結果等を保存してもよい。
FIG. 9 is a flowchart showing an example of scanning axis scanning processing performed by the PTZ
First, in step S11, the tracking
次に、ステップS16において、追尾対象走査部22は、現在指向している座標から軸方向51上で広角型監視カメラ座標72から遠ざける指向座標を計算する。具体的には、追尾対象走査部22は、広角型監視カメラ座標72から軸方向51に所定の間隔で遠ざかる指向座標を計算する。ステップS17において、追尾対象走査部22は、算出された座標が走査可能な範囲を超えたか否かを判定する。走査可能な範囲を超えていなかった場合、追尾対象走査部22は、ステップS18において、PT制御部17を制御し、次の指向座標に指向させ、ステップS12からの処理を繰り返す。捜査可能な範囲を超えていた場合、追尾対象走査部22は、方向軸走査処理を終了する。
Next, in step S16, the tracking
以上説明したように、本実施形態では、PTZ型監視カメラ1を軸方向に沿って走査して得られえた追尾対象候補から、評価値に応じて追尾対象を特定することができ、オブジェクトの位置を容易に特定することができる。
As described above, in the present embodiment, the tracking target can be specified according to the evaluation value from the tracking target candidates obtained by scanning the PTZ
(実施形態2)
次に、図10〜図13を参照し、実施形態2について、説明する。
実施形態1では、1つの追尾対象53が検出された例について説明していたが、本実施形態では、追尾対象53に加えて、その他の追尾対象候補90が検出された状況でも追尾を行うことができるようになっている。以下、このような状況における処理について主に説明する。
(Embodiment 2)
Next, the second embodiment will be described with reference to FIGS. 10 to 13.
In the first embodiment, an example in which one
本実施形態の監視システムは、上述の図1及び図2と同様に構成されている。実施形態1の場合と同様の構成要素については、同一の符号を用いることで、それらの詳細な説明を省略する。この監視システムでは、図2の構成に加えて、PTZ型監視カメラ1に特徴量起因対象特定部(図示せず)を設けている。以下、実施形態1との相違点である特徴量起因対象特定部を中心に説明する。
The monitoring system of the present embodiment is configured in the same manner as in FIGS. 1 and 2 described above. For the same components as in the first embodiment, the same reference numerals are used, and detailed description thereof will be omitted. In this monitoring system, in addition to the configuration shown in FIG. 2, the PTZ
実施形態1では、評価値算出部23で算出される評価値は、合焦に関する数値であった。本実施形態では画像を用いて人物等のオブジェクトの検出や年齢、性別推定等に用いる画像処理の特徴量を計算する特徴量起因対象特定部によって評価値を計算する。特徴量起因対象特定部は、計算した評価値を合焦に関する数値と合わせて特徴量行列87として候補座標保持部24に保持する。また、実施形態1では、評価値算出部23で計算される評価値の変動量によって追尾対象53を特定していたが、本実施形態では、特徴量起因対象特定部によって計算した画像処理の評価値を用いて追尾対象53を特定する。
In the first embodiment, the evaluation value calculated by the evaluation
図10は、この監視システムのカメラ設置構成及び広角型監視カメラ2から指定した追尾対象53の存在する軸方向51を示す概略図である。また、図11は、追尾対象53とは異なるが軸方向51に近い位置に存在する追尾対象候補90の例を示す概略図である。
実施形態1では、PTZ型監視カメラ1が軸方向51に走査する際に、光学系制御部20を制御し、被写界深度を浅くしていたが、十分に被写界深度を浅くできない場合、軸方向51上に存在する物体を追尾対象候補として誤検出してしまう場合がある。このような場合、本来は追尾対象53に指向すべきPTZ型監視カメラ1が、別の物体(追尾対象候補90)に指向されてしまう可能性がある。
FIG. 10 is a schematic view showing the camera installation configuration of this surveillance system and the
In the first embodiment, when the PTZ
このため、本実施形態では、複数の走査によって取得された追尾対象候補の画像的な特徴量から評価値を求め、比較することで誤検出を防止する。すなわち、本実施形態では、複数の軸方向に沿った走査により得られた撮像画像に応じて追尾対象を特定する。ここで、追尾対象候補の画像的な特徴量には、例えば追尾対象候補の画像の形状の類似度、色の類似度、画像の解像度等が含まれる。本実施形態では、例えば図11に示すように、追尾対象53について広角型監視カメラ2から異なる位置にある追尾対象(53、53a)を2回以上指定し、夫々について軸方向51を送信する。PTZ型監視カメラ1は、複数回の追尾対象53の画像的な特徴量を有する特徴量行列87を取得し、これらを比較して類似した追尾対象53が検出された場合に、追尾対象53として特定する。
Therefore, in the present embodiment, erroneous detection is prevented by obtaining an evaluation value from the image feature quantities of the tracking target candidates acquired by a plurality of scans and comparing them. That is, in the present embodiment, the tracking target is specified according to the captured image obtained by scanning along a plurality of axial directions. Here, the image feature amount of the tracking target candidate includes, for example, the shape similarity, the color similarity, the image resolution, and the like of the image of the tracking target candidate. In the present embodiment, for example, as shown in FIG. 11, the tracking target (53, 53a) at a different position from the wide-
図12は、広角型監視カメラ2で設定された軸方向51、PTZ型監視カメラ1と追尾対象53、移動後の追尾対象53aを三次元的な領域として模式図で図示したものである。
実施形態1では、合焦し、評価値に変動が発生した追尾対象候補の座標のうち、時間的に最も早く検出されたものを追尾対象53としていた。本実施形態では、広角型監視カメラ2は、2つ以上の軸方向51をPTZ型監視カメラ1に送信する。PTZ型監視カメラ1は、夫々の軸方向51における走査で取得された追尾対象53と追尾対象候補90の画像の特徴量行列87を比較する。そして、PTZ型監視カメラ1の特徴量起因対象特定部は、類似する特徴量行列87が存在する追尾対象候補を追尾対象53と特定する。例えば、広角型監視カメラ2が複数の軸方向51を送信し、PTZ型監視カメラ1が夫々の軸方向51における走査で得た画像には追尾対象53、53aが写り込んでいるとする。この場合、夫々の走査において撮像された画像から計算された特徴量行列87からは、追尾対象候補の類似性の特徴を検出することができる。そこで、夫々の走査で得られた追尾対象候補の特徴を比較し、類似する追尾対象候補の組み合わせを検出することで、PTZ型監視カメラ1で追尾対象53を特定することが可能になる。
FIG. 12 is a schematic diagram showing the
In the first embodiment, among the coordinates of the tracking target candidates whose focusing and the evaluation value fluctuate, the one detected earliest in time is set as the tracking
図13は、広角型監視カメラ2から指定された複数の軸方向51に応じて、PTZ型監視カメラ1が追尾対象53を特定する処理の例を示すフローチャートである。
まず、広角型監視カメラ2の追尾対象受信部38は、ステップS21において、クライアント装置3から指定されたROI(1回目の追尾対象情報)を受信する。ステップS22において、軸方向送信部37は、受信した1回目の追尾対象情報に応じて任意軸上座標82と広角型監視カメラ座標72を含む軸方向データテーブル81を生成し、軸情報としてPTZ型監視カメラ1に送信する。
FIG. 13 is a flowchart showing an example of a process in which the PTZ
First, the tracking
ステップS23において、1回目の追尾対象情報を受信すると、PTZ型監視カメラ1の追尾対象走査部22は、S24において、図12で示した軸方向51上を走査させ、追尾対象53を特定する処理である走査軸走査処理を行う。走査軸走査処理については、実施形態1と同様である。1回目の走査が完了すると、追尾対象走査部22は、ステップS25において、広角型監視カメラ2に1回目の走査が完了したことを通知する。この通知に応じて、広角型監視カメラ2は、S26において、クライアント装置3に1回目の走査が完了したことを通知する。広角型監視カメラ2は、ステップS27において、クライアント装置3から、1回目とは別の座標で同一の追尾対象を指定する2回目の追尾対象情報(ROI)を受信する。これに応じて、軸方向送信部37は、ステップS28において、任意軸上座標82と広角型監視カメラ座標72を含む軸方向データテーブル81を生成し、2回目の軸情報としてPTZ型監視カメラ1に送信する。
When the first tracking target information is received in step S23, the tracking
ステップS29において、2回目の軸情報を受信すると、PTZ型監視カメラ1の追尾対象走査部22は、S30において、図12で示した軸方向51上を走査させ、追尾対象53を特定する処理である走査軸走査処理を行う。走査軸走査処理については、実施形態1と同様である。2回目の走査軸走査処理が完了すると、特徴量起因対象特定部は、ステップS31において、候補座標保持部24に保存されている2回目の走査結果と1回目の走査結果を比較して類似する特徴が存在するものを探索する。そして、特徴量起因対象特定部は、ステップS32において、探索したもののうち1回目の走査と2回目の走査で最も類似しているものを追尾対象と特定する。追尾対象を特定すると、追尾対象走査部22は、ステップS33において、広角型監視カメラ2に2回目の追尾対象の特定が完了したことを通知する。この通知に応じて、広角型監視カメラ2は、S34において、クライアント装置3に追尾対象の特定が完了したことを通知する。
When the second axis information is received in step S29, the tracking
なお、本実施形態では、類似するものの座標を追尾対象53の座標として特定しているが、類似度を算出し、類似度が一定以上に達した場合は、追尾対象53として特定してもよい。
ステップS33、S34では追尾対象53が特定されたことをPTZ型監視カメラ1から広角型監視カメラ2に通知し、広角型監視カメラ2からクライアント装置3に通知して処理を完了する。
In the present embodiment, the coordinates of similar objects are specified as the coordinates of the tracking
In steps S33 and S34, the PTZ
以上説明したように、本実施形態では、複数の軸方向における走査によって得られた夫々の追尾対象候補の画像的な特徴量から評価値を求め、夫々の評価値を比較して追尾対象を特定することにより、追尾対象の特定の精度を向上させることができる。
なお、本実施形態では、追尾対象の決定に用いる評価値として、画像処理に基づく特徴量から求めた評価値を用いたが、追尾対象候補の座標のうち高さを比較し、類似する高さ座標を有する追尾対象候補を追尾対象53と特定してもよい。あるいは、位置が所定の閾値より近い追尾対象候補がある場合に、当該追尾対象候補を追尾対象53と特定してもよい。また、本実施形態では、1回目の走査と同様に2回目の走査を行っているが、2回目の走査では、1回目の走査で取得された対象候補の高さに該当する軸方向上の点のみを走査の対象としてもよい。これにより、2回目の走査の時間を短縮することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その技術的思想の範囲内で種々の変形及び変更が可能である。
As described above, in the present embodiment, the evaluation value is obtained from the image feature amount of each tracking target candidate obtained by scanning in a plurality of axial directions, and the tracking target is specified by comparing the evaluation values. By doing so, it is possible to improve the specific accuracy of the tracking target.
In the present embodiment, as the evaluation value used for determining the tracking target, the evaluation value obtained from the feature amount based on the image processing is used, but the heights of the coordinates of the tracking target candidates are compared and similar heights are used. The tracking target candidate having coordinates may be specified as the tracking
Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the technical idea thereof.
(その他の実施形態)
以上、各実施形態を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(Other embodiments)
Although each embodiment has been described in detail above, the present invention can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. Good.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。ASICはApplication Specific Integrated Circuitの略である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. ASIC is an abbreviation for Application Specific Integrated Circuit.
1…PTZ型監視カメラ、2…広角型監視カメラ、3…クライアント装置、4…ネットワーク、11…撮像部、12…画像処理部、13…撮像制御部、14…システム制御部、15…通信部、16…軸方向受信部、17…PT制御部、18…パン駆動部、19…チルト駆動部、20…光学系制御部、21…光学系駆動部、22…追尾対象走査部、23…評価値算出部、24…候補座標保持部、25…追尾対象特定部、31…撮像部、32…画像処理部、33…システム制御部、35…通信部、36…撮像装置相対位置保持部、37…軸方向送信部、38…追尾対象受信部、41…表示部、42…入力部、43…システム制御部、45…通信部 1 ... PTZ type surveillance camera, 2 ... wide angle type surveillance camera, 3 ... client device, 4 ... network, 11 ... imaging unit, 12 ... image processing unit, 13 ... imaging control unit, 14 ... system control unit, 15 ... communication unit , 16 ... Axial receiving unit, 17 ... PT control unit, 18 ... Pan drive unit, 19 ... Tilt drive unit, 20 ... Optical system control unit, 21 ... Optical system drive unit, 22 ... Tracking target scanning unit, 23 ... Evaluation Value calculation unit, 24 ... Candidate coordinate holding unit, 25 ... Tracking target identification unit, 31 ... Imaging unit, 32 ... Image processing unit, 33 ... System control unit, 35 ... Communication unit, 36 ... Imaging device relative position holding unit, 37 ... Axial transmission unit, 38 ... Tracking target reception unit, 41 ... Display unit, 42 ... Input unit, 43 ... System control unit, 45 ... Communication unit
Claims (11)
前記第1の撮像手段の撮像方向を変更する変更手段と、
オブジェクトの方向を取得する取得手段と、
前記取得手段が取得した前記オブジェクトの方向に沿って前記第1の撮像手段の撮像方向を変更するように前記変更手段を制御する制御手段と、
前記制御手段による前記変更手段の制御に応じた前記第1の撮像手段の撮像画像に基づいて前記オブジェクトの位置を特定する特定手段と、
を備えることを特徴とする撮像装置。 The first imaging means and
A changing means for changing the imaging direction of the first imaging means, and
How to get the direction of an object and
A control means for controlling the changing means so as to change the imaging direction of the first imaging means along the direction of the object acquired by the acquiring means.
A specific means for specifying the position of the object based on an image captured by the first imaging means according to the control of the changing means by the control means, and
An imaging device characterized by comprising.
前記第2の撮像手段による撮像画像中のオブジェクトを指定する指定手段と、
前記指定手段によって指定された前記オブジェクトの方向を算出して前記取得手段に供給する第1の算出手段と、
を備えることを特徴とする請求項1記載の撮像装置。 A second imaging means that performs imaging at an angle of view wider than the angle of view of the first imaging means, and
Designating means for designating an object in an image captured by the second imaging means, and
A first calculation means that calculates the direction of the object designated by the designated means and supplies it to the acquisition means.
The imaging device according to claim 1, further comprising.
を備えることを特徴とする請求項1または請求項2に記載の撮像装置。 A focusing means for focusing the first imaging means at a position along the direction of the object according to the control of the changing means by the control means.
The imaging device according to claim 1 or 2, wherein the image pickup apparatus is provided with.
ことを特徴とする請求項3記載の撮像装置。 The focusing means focuses the first imaging means so that the depth of field becomes shallower than a predetermined threshold value.
3. The imaging device according to claim 3.
前記第1の撮像手段の撮像画像から所定の評価値を算出する第2の算出手段と、
前記制御手段による前記変更手段の制御中に、前記第2の算出手段によって算出された前記評価値が所定の条件を満たしたときに、前記第1の撮像手段の撮像方向に対応する位置を保持する保持手段と、を備え、
前記保持手段に保持されている前記位置に応じて前記オブジェクトの位置を特定する、
ことを特徴とする請求項1から請求項4のいずれか1項に記載の撮像装置。 The specific means
A second calculation means for calculating a predetermined evaluation value from an image captured by the first imaging means, and
During the control of the changing means by the control means, when the evaluation value calculated by the second calculating means satisfies a predetermined condition, the position corresponding to the imaging direction of the first imaging means is held. With a holding means,
The position of the object is specified according to the position held by the holding means.
The imaging device according to any one of claims 1 to 4, wherein the imaging device is characterized by the above.
ことを特徴とする請求項5記載の撮像装置。 The specific means identifies the position first held by the holding means as the position of the object.
5. The imaging device according to claim 5.
少なくとも、形状の類似度、色の類似度、画像の解像度のいずれかに応じて前記評価値を算出する、
ことを特徴とする請求項5記載の撮像装置。 The second calculation means is
The evaluation value is calculated according to at least one of shape similarity, color similarity, and image resolution.
5. The imaging device according to claim 5.
前記制御手段は、前記取得手段が取得した複数の前記オブジェクトの方向夫々に沿って前記第1の撮像手段の撮像方向を変更するように前記変更手段を制御し、
前記特定手段は、前記制御手段による前記変更手段の制御に応じた夫々の前記第1の撮像手段の撮像画像に応じて前記オブジェクトの位置を特定する、
ことを特徴とする請求項1から請求項7のいずれか1項に記載の撮像装置。 The acquisition means acquires the directions of a plurality of the objects with respect to the same object.
The control means controls the changing means so as to change the imaging direction of the first imaging means along the directions of the plurality of objects acquired by the acquiring means.
The specifying means specifies the position of the object according to the captured image of each of the first imaging means according to the control of the changing means by the control means.
The imaging device according to any one of claims 1 to 7, wherein the imaging device is characterized by the above.
前記制御手段による前記変更手段の制御に応じた夫々の前記第1の撮像手段の撮像画像に応じて前記オブジェクトの位置を各々特定し、
前記特定した夫々のオブジェクトの位置が所定の閾値より近い場合に、前記特定した夫々のオブジェクトの位置に応じて、前記オブジェクトの位置を特定する、
ことを特徴とする請求項8記載の撮像装置。 The specific means
The positions of the objects are specified according to the images captured by the first imaging means according to the control of the changing means by the control means.
When the position of each of the specified objects is closer than a predetermined threshold value, the position of the object is specified according to the position of each of the specified objects.
8. The imaging device according to claim 8.
前記取得した前記オブジェクトの方向に沿って第1の撮像手段の撮像方向を変更するステップと、
前記撮像方向の変更に応じた前記第1の撮像手段の撮像画像に基づいて前記オブジェクトの位置を特定するステップと、
を有することを特徴とする撮像方法。 Steps to get the direction of an object,
A step of changing the imaging direction of the first imaging means along the acquired direction of the object, and
A step of specifying the position of the object based on the image captured by the first imaging means in response to the change in the imaging direction, and
An imaging method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019101717A JP2020198468A (en) | 2019-05-30 | 2019-05-30 | Imaging apparatus, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019101717A JP2020198468A (en) | 2019-05-30 | 2019-05-30 | Imaging apparatus, imaging method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020198468A true JP2020198468A (en) | 2020-12-10 |
Family
ID=73648253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019101717A Pending JP2020198468A (en) | 2019-05-30 | 2019-05-30 | Imaging apparatus, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020198468A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168481A1 (en) * | 2021-02-02 | 2022-08-11 | ソニーグループ株式会社 | Image processing device and image processing system |
-
2019
- 2019-05-30 JP JP2019101717A patent/JP2020198468A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168481A1 (en) * | 2021-02-02 | 2022-08-11 | ソニーグループ株式会社 | Image processing device and image processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10848685B2 (en) | Imaging system, image processing apparatus, imaging system control method, image processing apparatus control method, and program | |
CN107438173B (en) | Video processing apparatus, video processing method, and storage medium | |
JP6532217B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM | |
US11190698B2 (en) | Imaging apparatus, control method for imaging apparatus, information processing apparatus, and storage medium | |
US11132814B2 (en) | Information processing apparatus, information processing method, and storage medium | |
CN108965656B (en) | Display control apparatus, display control method, and storage medium | |
US11037013B2 (en) | Camera and image processing method of camera | |
JP2011091546A (en) | Intruding object detection system | |
JP2016127571A (en) | Camera system, display control device, display control method, and program | |
JP2019129410A (en) | Monitoring camera, control method thereof, and program | |
JP2019159739A (en) | Image processing device, image processing method, and program | |
US9773143B2 (en) | Image processing apparatus, image processing method, and image processing system | |
CN103248816A (en) | Focus adjusting method and image capture device thereof | |
JP2017050684A (en) | Controller, control method and program | |
JP4594197B2 (en) | Automatic tracking device | |
JP7504688B2 (en) | Image processing device, image processing method and program | |
JP2020198468A (en) | Imaging apparatus, imaging method, and program | |
JP2020194125A (en) | Information processing device, imaging device, camera system, information processing method, a program, and storage medium | |
JP7237520B2 (en) | Information processing device, information processing method and program | |
KR101670247B1 (en) | System for magnifying-moving object using one click of cctv real-time image and method therefor | |
JP2021040249A (en) | Client device, imaging apparatus, and control method of the same | |
JP2021029028A (en) | Object tracking system, object tracking apparatus, object tracking method and program | |
US20220148208A1 (en) | Image processing apparatus, image processing method, program, and storage medium | |
KR20190110369A (en) | Intelligent camera system for automatic tracking of specified subject and image capturing method using the same | |
JP2023016580A (en) | Imaging system, imaging method, and computer program |