JP5886594B2 - Camera system - Google Patents
Camera system Download PDFInfo
- Publication number
- JP5886594B2 JP5886594B2 JP2011235737A JP2011235737A JP5886594B2 JP 5886594 B2 JP5886594 B2 JP 5886594B2 JP 2011235737 A JP2011235737 A JP 2011235737A JP 2011235737 A JP2011235737 A JP 2011235737A JP 5886594 B2 JP5886594 B2 JP 5886594B2
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- camera
- coordinate system
- clusters
- common
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010354 integration Effects 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 description 75
- 239000011159 matrix material Substances 0.000 description 62
- 238000006243 chemical reaction Methods 0.000 description 37
- 230000009466 transformation Effects 0.000 description 36
- 238000000034 method Methods 0.000 description 26
- 238000012544 monitoring process Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000005457 optimization Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013519 translation Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、複数のカメラが配列されたカメラシステムを用いて、人物等の移動物体の位置を検出するカメラシステムに関し、特に、カメラの外部パラメータの校正が一部のカメラごとに行われるカメラシステムに関する。 The present invention relates to a camera system that detects the position of a moving object such as a person using a camera system in which a plurality of cameras are arranged, and in particular, a camera system in which calibration of external parameters of a camera is performed for each of some cameras. About.
対象空間を撮影した画像に基づいて移動物体の行動分析等を行う場合、隣り合うカメラが共通視野を持つように複数のカメラを配列して移動物体を追跡すれば、共通視野にて移動物体を3次元的に解析することでオクルージョンが生じても物***置を精度良く検出でき、また複数の視野を連結することで物***置を広範囲に追跡できるというメリットがある。 When performing behavior analysis of moving objects based on images of the target space, tracking moving objects by arranging multiple cameras so that adjacent cameras have a common field of view, Even if occlusion occurs by three-dimensional analysis, the object position can be detected with high accuracy, and the object position can be tracked over a wide range by connecting a plurality of fields of view.
複数のカメラで物***置の情報を交換するには、共通視野を利用して各カメラの外部パラメーター(カメラの位置・姿勢)を計測する校正(キャリブレーション)を正確に行っておく必要があるが、カメラが多数になると全カメラに共通する視野を設定するのは困難がある。そのため、特許文献1に記載の撮像装置較正方法ではまず視野を共有するカメラごとにキャリブレーションを行ない、その後、これらの部分ごとのキャリブレーション結果を1つの座標系に変換する。
In order to exchange object position information between multiple cameras, it is necessary to accurately perform calibration to measure the external parameters (camera position and orientation) of each camera using a common field of view. When there are many cameras, it is difficult to set a field of view common to all cameras. For this reason, in the imaging apparatus calibration method described in
このとき特許文献1の方法では、部分ごとのキャリブレーション結果の間に生じる誤差を均一化するために各カメラの外部パラメータを少しずつ補正して、誤差を全カメラに分散させる構成を示している。
At this time, the method disclosed in
複数のカメラを用いた追跡処理を好適に行うには、複数カメラの画像から物体の3次元位置を精度良く求める必要があり、そのために、共通視野を有するカメラ群(クラスタ)内におけるカメラキャリブレーションを高精度に行うことが求められる。この点、カメラシステム全体としての整合性を確保するために上述のように誤差を全カメラに分散させると、クラスタ内でのカメラの位置等、外部パラメータも修正される。その結果、クラスタ内の追跡精度が落ちるという問題があった。また、各クラスタでの追跡結果をクラスタ間にて対応付けて統合する処理はクラスタ内の追跡精度が高いことを前提としている。そのため、クラスタ内の追跡精度の低下はクラスタ間統合処理の精度も低下させ、全体としての追跡精度が低下するという問題があった。 In order to suitably perform tracking processing using a plurality of cameras, it is necessary to accurately obtain a three-dimensional position of an object from images of a plurality of cameras. For this reason, camera calibration in a camera group (cluster) having a common field of view is required. Is required to be performed with high accuracy. In this regard, when the error is distributed to all the cameras as described above in order to ensure the consistency of the entire camera system, external parameters such as the position of the camera in the cluster are also corrected. As a result, there is a problem that the tracking accuracy in the cluster is lowered. Further, the processing for associating and integrating the tracking results in each cluster is premised on high tracking accuracy within the cluster. For this reason, a decrease in tracking accuracy within the cluster also decreases the accuracy of inter-cluster integration processing, resulting in a problem that the tracking accuracy as a whole decreases.
また、各クラスタにおけるキャリブレーション結果はそれぞれに量子化誤差などを含んでおり、クラスタ間で物***置の情報を交換するとこの誤差が重畳する。そのため、クラスタがループ状に接続された場合などにシステム全体として物***置の整合性を保てなくなる問題があった。 Further, the calibration result in each cluster includes a quantization error and the like, and this error is superimposed when information on the object position is exchanged between the clusters. For this reason, there is a problem that the consistency of the object position cannot be maintained as a whole system when the clusters are connected in a loop.
このように多数のカメラを用いた追跡では、局所における物***置の検出精度と全体での物***置の整合性とのトレードオフが問題となる。 Thus, in tracking using a large number of cameras, a trade-off between local object position detection accuracy and overall object position consistency becomes a problem.
本発明は上記問題を鑑みてなされたものであり、多数のカメラを用いた広い空間での物***置の検出を高精度で行うことのできるカメラシステムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a camera system capable of detecting an object position in a wide space using a large number of cameras with high accuracy.
本発明に係るカメラシステムは、視野内に共通視野を有した一群のカメラであるクラスタを複数含み、当該複数のクラスタが隣り合うクラスタにて共通カメラを共有して互いに連鎖したものであって、前記クラスタごとに設定したクラスタ座標系、並びに当該クラスタ座標系における前記各カメラの位置及び姿勢を記憶するクラスタ校正情報記憶部と、前記隣り合うクラスタにて共有している前記共通カメラの前記クラスタ座標系それぞれの位置及び姿勢の間に所定範囲の誤差を許容することにより当該クラスタ座標系の相互の配置関係を調整した、全クラスタに亘る統合座標系を記憶する統合座標系記憶部と、前記クラスタごとに、前記カメラが撮像した物体の画像を解析して当該クラスタの前記クラスタ座標系における当該物体の物***置を検出する物***置検出部と、前記物***置検出部により検出された前記クラスタ座標系での前記物***置を前記統合座標系に変換して出力する物***置統合部と、を備える。 The camera system according to the present invention includes a plurality of clusters that are a group of cameras having a common field of view within a field of view, and the plurality of clusters share a common camera in adjacent clusters and are chained together. A cluster coordinate system set for each cluster, and a cluster calibration information storage unit that stores the position and orientation of each camera in the cluster coordinate system, and the cluster coordinates of the common camera shared by the adjacent clusters An integrated coordinate system storage unit for storing an integrated coordinate system over all clusters, wherein the mutual arrangement relationship of the cluster coordinate system is adjusted by allowing an error within a predetermined range between the position and orientation of each system; and the cluster Each time, the image of the object captured by the camera is analyzed to determine the object position of the object in the cluster coordinate system of the cluster. The comprising an object position detection unit for detecting, and a object position integrating unit for converting said combined coordinate system of the object position in said detected cluster coordinate system by the object location detecting portion.
他の本発明に係るカメラシステムにおいては、前記複数のクラスタはループ状に連鎖し、前記統合座標系は、ループ上の全ての前記共通カメラについて積算した前記誤差を最小化するように定められている。 In another camera system according to the present invention, the plurality of clusters are chained in a loop shape, and the integrated coordinate system is determined to minimize the error accumulated for all the common cameras on the loop. Yes.
本発明に係るカメラシステムにおいては、前記物***置統合部は、前記クラスタ座標系における前記共通カメラの前記位置及び姿勢を前記隣り合うクラスタにて合致させて、当該隣り合うクラスタのそれぞれから検出された前記物***置を照合し同一物体の対応付けを行う。 In the camera system according to the present invention, the object position integration unit is detected from each of the adjacent clusters by matching the position and orientation of the common camera in the cluster coordinate system with the adjacent clusters. The object positions are collated and the same object is associated.
別の本発明に係るカメラシステムにおいては、前記物***置統合部は、前記同一物体として対応付けされた前記物***置のうち、前記隣り合うクラスタそれぞれから同一時刻に検出された複数の物***置を前記統合座標系における当該物***置の内分点に置き換えて出力する。 In the camera system according to another aspect of the invention, the object position integration unit may include a plurality of object positions detected at the same time from the adjacent clusters among the object positions associated with the same object. Replace with the internal dividing point of the object position in the integrated coordinate system and output.
本発明によれば、多数のカメラを用いて広い空間で高精度に物***置を検出することが可能となる。 According to the present invention, it is possible to detect an object position with high accuracy in a wide space using a large number of cameras.
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。本実施形態は、監視対象空間に多数のカメラを配置して広範囲に人物等の移動物体を3次元追跡するカメラシステムである。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. This embodiment is a camera system that three-dimensionally tracks a moving object such as a person over a wide range by arranging a large number of cameras in a monitoring target space.
最初に本システムで用いるマルチカメラトラッキングについて説明する。マルチカメラトラッキングは複数台のカメラで異なる視点から撮影した画像に基づいて3次元位置を求める手法である。この手法は、異なったアングルの複数の画像を用いて同一物体を観察するため、1台のカメラだけで撮影する場合に比べ位置の検出精度が高いという特徴を有する。例えば、カメラ1台で物***置を検出する場合、一般に、カメラから見た奥行き方向に対する検出精度が悪いのに対し、別のカメラも用いれば同一物体を別の角度から見ることができるため奥行き方向の拘束を与えることができる。この拘束はカメラ台数が多い程強くなり、それに応じて物***置の検出精度が高くなる。 First, multi-camera tracking used in this system will be described. Multi-camera tracking is a technique for obtaining a three-dimensional position based on images taken from different viewpoints by a plurality of cameras. This method has a feature that the position detection accuracy is higher than that in the case of photographing with only one camera because the same object is observed using a plurality of images of different angles. For example, when detecting the position of an object with one camera, the detection accuracy in the depth direction viewed from the camera is generally poor, but if another camera is used, the same object can be viewed from different angles, so that the depth direction Can be constrained. This restriction becomes stronger as the number of cameras increases, and the detection accuracy of the object position increases accordingly.
ただし、その検出精度はカメラの位置・姿勢といった外部パラメータの精度に左右される。そのために、共通視野を持つ複数のカメラに対して予めカメラキャリブレーションを行い、各カメラの外部パラメータを高精度に求める必要がある。 However, the detection accuracy depends on the accuracy of external parameters such as the position and orientation of the camera. Therefore, it is necessary to perform camera calibration on a plurality of cameras having a common field of view in advance and obtain external parameters of each camera with high accuracy.
ここで、カメラシステムを構成する全てのカメラに対してマルチカメラトラッキングを適用して監視対象空間全体にて物体を一元的に追跡できることが望ましい。しかし、建物などの広い空間では例えば、廊下等の遮蔽物により、カメラシステム全体で共通視野を確保できない状況が存在し得る。つまり、この場合、共通視野を前提とするマルチカメラトラッキングを監視対象空間に一元的には適用することができない。 Here, it is desirable that the multi-camera tracking is applied to all the cameras constituting the camera system so that the object can be tracked in the entire monitoring target space. However, in a wide space such as a building, there may be a situation where a common field of view cannot be secured in the entire camera system due to, for example, a shield such as a corridor. That is, in this case, multi-camera tracking based on a common visual field cannot be applied to the monitoring target space in an integrated manner.
この場合には、共通視野を持つカメラの集合であるクラスタという概念を導入し、監視対象空間全体を複数のカメラクラスタで分担する。好適には3以上のクラスタを用いて広い空間を監視する。つまり、カメラクラスタ単位で独立にマルチカメラトラッキングを行う。そして、クラスタごとの追跡結果をクラスタ間にて統合して監視対象空間全体での追跡結果を得る。隣り合うクラスタには互いに共通するカメラを設け、統合処理はこのカメラを利用して行う。 In this case, the concept of a cluster that is a set of cameras having a common field of view is introduced, and the entire monitoring target space is shared by a plurality of camera clusters. Preferably, a large space is monitored using three or more clusters. That is, multi-camera tracking is performed independently for each camera cluster. Then, the tracking results for each cluster are integrated between the clusters to obtain the tracking results for the entire monitoring target space. Adjacent clusters are provided with a common camera, and integration processing is performed using this camera.
図1はカメラの配置の一例を示す模式的な平面図であり、本実施形態では当該配置を用いてカメラシステムを説明する。図1に示す配置では、監視対象空間には6台のカメラe1〜e6が配置される。例えば、これらカメラが取り囲む領域に障害物(図示せず)が存在し、任意のカメラには当該障害物の陰に隠れてその視野を撮影できないカメラが存在する。例えば、カメラe2からはカメラe5の視野内の空間を撮影できない。 FIG. 1 is a schematic plan view showing an example of the arrangement of cameras. In this embodiment, a camera system will be described using the arrangement. In the arrangement shown in FIG. 1, six cameras e1 to e6 are arranged in the monitoring target space. For example, an obstacle (not shown) exists in an area surrounded by these cameras, and an arbitrary camera includes a camera that is hidden behind the obstacle and cannot capture its field of view. For example, the camera e2 cannot capture a space in the field of view of the camera e5.
図1のカメラシステムでは3つのクラスタC1〜C3を設定し、当該クラスタごとにカメラキャリブレーションを行う。キャリブレーションとマルチカメラトラッキングとを共にクラスタ単位で行うことでマルチカメラトラッキングを高精度に行うことができる。C1はカメラe1〜e3からなり、C2はカメラe3〜e5、C3はカメラe5,e6及びe1からなる。各クラスタの3台のカメラは互いに共通視野を有する。例えば、C1においてe1とe2、e2とe3、及びe3とe1とはそれぞれ共通視野を有し、それら共通視野は連続した共通視野(クラスタ内共通視野)を形成する。図1ではクラスタを表す符号C1〜C3で指し示す矩形により、各クラスタのクラスタ内共通視野を模式的に表現している。 In the camera system of FIG. 1, three clusters C1 to C3 are set, and camera calibration is performed for each cluster. Multi-camera tracking can be performed with high accuracy by performing both calibration and multi-camera tracking in units of clusters. C1 includes cameras e1 to e3, C2 includes cameras e3 to e5, and C3 includes cameras e5, e6, and e1. The three cameras in each cluster have a common field of view. For example, in C1, e1 and e2, e2 and e3, and e3 and e1 each have a common visual field, and these common visual fields form a continuous common visual field (common visual field within a cluster). In FIG. 1, a common field within a cluster of each cluster is schematically represented by rectangles indicated by reference numerals C <b> 1 to C <b> 3 representing the clusters.
また、図1のカメラシステムでは互いに隣り合うクラスタ(隣接クラスタ)にはそれらに共通するカメラ(共通カメラ)を1台設け、隣接クラスタ同士には互いのクラスタ内共通視野がオーバーラップする領域を設けている。具体的には、カメラe1,e3,e5が共通カメラである。すなわち、図1のカメラシステムは3つのクラスタがループ状に接続される例となっている。 In the camera system of FIG. 1, one camera (common camera) that is common to the clusters adjacent to each other (adjacent cluster) is provided, and a region in which the common visual field in each cluster overlaps is provided between adjacent clusters. ing. Specifically, the cameras e1, e3, e5 are common cameras. That is, the camera system of FIG. 1 is an example in which three clusters are connected in a loop.
上述したようにカメラキャリブレーションはクラスタごとに独立に行う。よって、クラスタごとに3次元世界を記述するローカルな座標系(クラスタ座標系)を持つことになる。複数のクラスタ座標系間の座標変換は当該複数のクラスタに共通する共通カメラのカメラ座標系を介して行う。 As described above, camera calibration is performed independently for each cluster. Therefore, each cluster has a local coordinate system (cluster coordinate system) describing the three-dimensional world. Coordinate conversion between a plurality of cluster coordinate systems is performed via a camera coordinate system of a common camera common to the plurality of clusters.
以上、マルチトラッキングロジックを用いた本システムにおける追跡処理の概要について説明した。以降、さらにその詳細について説明する。 The outline of the tracking process in this system using the multi-tracking logic has been described above. Hereinafter, further details will be described.
図2は本実施形態に係るカメラシステムの概略構成を示すブロック図であり、カメラシステム及び画像処理部1を備える。画像処理部1はクラスタ処理部2及び統合処理部3を含んで構成され、入力装置4及び出力装置5が画像処理部1に接続される。
FIG. 2 is a block diagram illustrating a schematic configuration of the camera system according to the present embodiment, which includes the camera system and the
図2に示すカメラ構成は図1に示したものと同じ構成であり、6台のカメラe1〜e6からなり、3つのクラスタC1〜C3を設定される。既に述べたように、個々のカメラは監視対象空間の全体を撮影できないが、それぞれの視野を合わせて監視対象空間全体を撮影し、またマルチトラッキングを可能とするように設置される。移動物体の追跡を行う監視動作時には、各カメラはそれぞれの視野内を所定の時間間隔で撮影する。また、カメラは監視動作時だけでなく、その事前処理として行われるカメラキャリブレーションにも用いられる。カメラにより撮影された監視画像は順次、各カメラが属するクラスタに対応するクラスタ処理部2へ出力される。なお、専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、カメラは基本的に人を俯瞰撮影可能な高さに設置される。
The camera configuration shown in FIG. 2 is the same as that shown in FIG. 1, and is composed of six cameras e1 to e6, and three clusters C1 to C3 are set. As described above, each camera cannot shoot the entire monitoring target space, but is installed so as to shoot the entire monitoring target space with each field of view and to enable multi-tracking. At the time of a monitoring operation for tracking a moving object, each camera takes an image of each field of view at a predetermined time interval. Further, the camera is used not only for the monitoring operation but also for camera calibration performed as a pre-process thereof. The monitoring images captured by the cameras are sequentially output to the
クラスタ処理部2及び統合処理部3は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置、及びROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置を用いて構成される。記憶装置は演算装置で使用されるプログラムやデータを記憶し、演算装置は記憶装置からプログラムを読み出して実行し、監視動作時には移動物体追跡処理を行い、カメラシステムの設置時等にはキャリブレーションに伴う処理を行う。
The
入力装置4はキーボード、マウス、タッチパネルディスプレイ等のユーザーインターフェース装置であり、ユーザーにより操作され画像処理部1に対する各種設定を入力するために用いられる。また、入力装置4はカメラシステムの設置時やメンテナンス時における管理者等の画像処理部1に対する設定入力にも用いられる。特に、入力装置4はカメラ外部パラメータの校正作業において、設置した各カメラの画像上での特徴点を指定する手段として用いることができる。
The
出力装置5はカメラが撮影した画像を表示する表示手段や、異常発生をユーザに知らせる音声・警告音等を出力する音響出力手段を含む。
The
図3はクラスタ処理部2の概略の構成を示すブロック図である。同図を用いて、クラスタ処理部2についてさらに説明する。クラスタ処理部2はクラスタC1〜C3それぞれに対応して設けられ、カメラクラスタごとの処理を行う。クラスタ処理部2はキャリブレーション実行部20、3次元追跡部21及び記憶部22を含んでいる。
FIG. 3 is a block diagram showing a schematic configuration of the
キャリブレーション実行部20は、クラスタを構成する各カメラで撮影された画像から得られる情報などを用いてカメラキャリブレーションを行う。例えば、共通視野内に設置した基準物体を各カメラで撮影し、それぞれの画像に映る基準物体上の特徴点の座標からクラスタ座標系における各カメラの位置・姿勢が算出される。画像における特徴点は、キャリブレーションを行う作業者が出力装置5に表示される画像にて特徴点を認識し入力装置4からその座標を入力する。また、画像処理部1が画像認識により自動的に特徴点を抽出する構成とすることもできる。キャリブレーション実行部20により算出された各カメラの外部パラメータ等のキャリブレーション結果は記憶部22に格納される。
The
3次元追跡部21(物***置検出部)は、クラスタごとに当該クラスタに属する各カメラから入力された画像を用いてマルチカメラトラッキングを行って各時刻における人物位置(物***置)を検出する。この時、記憶部22に記憶されているカメラキャリブレーション情報を用いる。例えば、3次元追跡部21は予め記憶されている背景画像を用い、各カメラの入力画像から背景差分により、追跡対象とする移動物体である人物が映る画像領域を抽出する。一方、仮想3次元空間に3次元的な人モデルを配置し、このモデルをカメラキャリブレーション情報に基づき各カメラの画像上に投影し投影領域を求める。そして、人モデルの投影領域と人物の像の抽出領域との一致度を計算し、各カメラについての一致度の合計が最も大きくなる人モデルの床面上の位置を探索して人物位置とする。なお、3次元追跡部21にて検出される人物位置は各クラスタ座標系での座標値である。人物位置には人物の識別番号及びクラスタ処理部2のクラスタ番号を含めて統合処理部3へ出力される。
The three-dimensional tracking unit 21 (object position detection unit) detects a person position (object position) at each time by performing multi-camera tracking using an image input from each camera belonging to the cluster for each cluster. At this time, the camera calibration information stored in the
記憶部22には、クラスタ番号、3次元追跡部21により算出された人物位置が保存される。また記憶部22はクラスタ校正情報記憶部であり、キャリブレーション実行部20により算出された外部パラメータ等のカメラキャリブレーション情報を記憶する。
The
次に統合処理部3について説明する。図4は統合処理部3の概略の構成を示すブロック図である。統合処理部3は座標変換部30、変換行列生成部31、最適化処理部32、座標統合処理部33及び記憶部34を含んでいる。
Next, the
クラスタ処理部2がクラスタごとの処理を行うのに対し、統合処理部3はそれらクラスタを統合して扱う処理を行う。具体的には統合処理部3は、カメラシステムの設置時等に、クラスタ処理部2の記憶部22に保存した各クラスタのカメラキャリブレーション情報を基に、全てのクラスタに対するループキャリブレーションを行う。また、監視動作時には各クラスタ処理部2から入力される人物位置を統合する物***置統合処理を行う。この物***置統合処理は、クラスタ間での同一人物の対応付けを行う処理と、各クラスタのクラスタ座標系で求められる人物位置を共通の座標系(統合座標系)に変換することによりこれらを統合する処理とを含んでいる。統合された人物位置を含む追跡結果は出力装置5へ出力することができる。
The
記憶部34はクラスタ構成情報340、変換行列341及び誤差行列342などを保存する。
The
クラスタ構成情報340は、カメラとクラスタの関係及びクラスタ間の関係を記述したものである。図5は図1に示したカメラシステムに関するクラスタ構成情報340を表形式で表した模式図である。カメラ及びクラスタはそれぞれカメラ番号及びクラスタ番号で識別される。また、互いに隣接するクラスタの組(隣接クラスタ組)は隣接番号で識別される。クラスタ構成情報340には、各クラスタとカメラとの対応関係及び当該クラスタを構成するカメラ台数(図5(a))、並びに、各隣接クラスタ組を構成するクラスタと共通カメラとの対応関係(図5(b))が格納される。クラスタ構成情報340は予め記憶部34に格納される。
The cluster configuration information 340 describes the relationship between cameras and clusters and the relationship between clusters. FIG. 5 is a schematic diagram showing the cluster configuration information 340 related to the camera system shown in FIG. 1 in a table format. Cameras and clusters are identified by camera numbers and cluster numbers, respectively. Further, a set of adjacent clusters (adjacent cluster set) is identified by an adjacent number. The cluster configuration information 340 includes a correspondence relationship between each cluster and a camera, the number of cameras constituting the cluster (FIG. 5A), and a correspondence relationship between clusters constituting each adjacent cluster set and a common camera (see FIG. 5). 5 (b)) is stored. The cluster configuration information 340 is stored in the
変換行列341はクラスタ間の座標変換を実現するための行列T、及び同一クラスタ内の共通カメラ間の座標変換を実現するための行列Sである。すなわち、各隣接クラスタ組の一方のクラスタのクラスタ座標系から当該隣接クラスタ組の他方のクラスタのクラスタ座標系への回転及び平行移動を表す行列Tが隣接クラスタ組ごとに記憶され、各クラスタ内の任意の共通カメラのカメラ座標系から当該クラスタ内の別の共通カメラのカメラ座標系への回転及び平行移動を表す行列Sがクラスタごとに記憶される。これら変換行列341は変換行列生成部31により各クラスタ処理部2のカメラキャリブレーション情報から生成される。
The
さらに変換行列341の行列Tとそれを用いた座標変換について説明する。
Further, the matrix T of the
行列Tにより実現される座標変換は、各隣接クラスタ組の一方のクラスタのクラスタ座標系を当該隣接クラスタ組の他方のクラスタのクラスタ座標系に、当該隣接クラスタ組が共有する共通カメラの位置・姿勢を合致させるよう位置合わせして座標系を共通化することに相当する。以降、隣接クラスタにて共通カメラの位置・姿勢を合致させる位置合わせを「局所位置合わせ」と称する。 The coordinate transformation realized by the matrix T is performed by using the cluster coordinate system of one cluster of each adjacent cluster set as the cluster coordinate system of the other cluster of the adjacent cluster set, and the position / posture of the common camera shared by the adjacent cluster set. This is equivalent to making the coordinate system common by aligning them so as to match. Hereinafter, the alignment that matches the position / posture of the common camera in the adjacent cluster is referred to as “local alignment”.
各クラスタのクラスタ座標系と共通カメラのカメラ座標系との関係は当該クラスタのキャリブレーション情報により与えられる。すなわち、クラスタ座標系における共通カメラの位置・姿勢が定まれば、当該クラスタ座標系から当該共通カメラのカメラ座標系への変換が一意に定まる。クラスタ座標系での座標(X,Y,Z)からカメラ座標系での座標(x,y,z)への変換は、当該座標間の回転及び平行移動を表す同次変換行列Wを用いてQ=W・Pと定式化できる。ここで、Q=(x,y,z,1)t、P=(X,Y,Z,1)tであり、Wは4×4行列である。 The relationship between the cluster coordinate system of each cluster and the camera coordinate system of the common camera is given by the calibration information of the cluster. That is, if the position / orientation of the common camera in the cluster coordinate system is determined, the conversion from the cluster coordinate system to the camera coordinate system of the common camera is uniquely determined. The transformation from the coordinates (X, Y, Z) in the cluster coordinate system to the coordinates (x, y, z) in the camera coordinate system is performed using a homogeneous transformation matrix W representing rotation and translation between the coordinates. Q = W · P can be formulated. Here, Q = (x, y, z, 1) t , P = (X, Y, Z, 1) t , and W is a 4 × 4 matrix.
そして、共通カメラの位置・姿勢を合致させるよう位置合わせする場合、共通カメラのカメラ座標系の座標は隣接クラスタで同一であるから、共通カメラmを共有するクラスタiのクラスタ座標系Piからクラスタjのクラスタ座標系Pjへの変換及び変換行列Tijは、クラスタ座標系Piから共通カメラmのカメラ座標系Qmへの変換を表す同次変換行列Wimとクラスタ座標系Pjからカメラ座標系Qmへの変換を表す同次変換行列Wjmとを用いてそれぞれ式(1)及び式(2)で表される。
Pj=Tij・Pi (1)
Tij=Wjm −1・Wim (2)
And when aligning so that the position and orientation of the common camera match, the coordinates of the camera coordinate system of the common camera are the same in the adjacent cluster, so the cluster coordinate system P i of the cluster i sharing the common camera m is clustered. The transformation of j to the cluster coordinate system P j and the transformation matrix T ij are obtained from the homogeneous transformation matrix W im representing the transformation from the cluster coordinate system P i to the camera coordinate system Q m of the common camera m and the cluster coordinate system P j. represented by each formula using the homogeneous transformation matrix W jm representing the transformation to the camera coordinate system Q m (1) and (2).
P j = T ij · P i (1)
T ij = W jm −1 · W im (2)
変換行列341の行列T及びSを用いたもう一つの座標変換について説明する。
Another coordinate transformation using the matrices T and S of the
上述した局所位置合わせを数珠繋ぎに連鎖させることで直接隣り合わないクラスタのクラスタ座標系同士を位置合わせすることができる。このような位置合わせを「連鎖位置合わせ」と称する。ただし、連鎖位置合わせには隣接クラスタでの座標変換に加えて、同一クラスタ内の共通カメラ間での座標変換が必要である。キャリブレーション情報からこれらの共通カメラのカメラ座標系の間の変換は一意に定まる。すなわち共通カメラmのカメラ座標系Qmから共通カメラnのカメラ座標系Qnへの変換は、これらの座標系の間の回転及び平行移動を表す同次変換行列Vmnを用いてQn=Vmn・Qmと定式化される。クラスタjの共通カメラm側にクラスタiが隣接し、クラスタjの共通カメラn側にクラスタkが隣接しているとすれば、クラスタiのクラスタ座標系Piからクラスタkのクラスタ座標系Pkへの変換及び変換行列Sikは、それぞれ式(3)及び式(4)で表される。
Pk=Sik・Pi (3)
Sik=Wkn −1・Vmn・Wim (4)
Cluster coordinate systems of clusters that are not directly adjacent to each other can be aligned by linking the above-described local alignment in a daisy chain. Such alignment is referred to as “chain alignment”. However, chain alignment requires coordinate conversion between common cameras in the same cluster in addition to coordinate conversion in adjacent clusters. The conversion between the camera coordinate systems of these common cameras is uniquely determined from the calibration information. That common camera transformation from the camera coordinate system Q m of m to the camera coordinate system Q n of the common camera n, using the homogeneous transformation matrix V mn representing the rotation and translation between these coordinate systems Q n = It is formulated as V mn · Q m . If the cluster i is adjacent to the common camera m side of the cluster j and the cluster k is adjacent to the common camera n side of the cluster j, the cluster coordinate system P k of the cluster i to the cluster coordinate system P k of the cluster k is assumed. The conversion to and the conversion matrix S ik are expressed by Expression (3) and Expression (4), respectively.
P k = S ik · P i (3)
S ik = W kn −1 · V mn · W im (4)
なお、式(3)及び式(4)は2つ隣のクラスタへの変換であるが、3つ以上隣のクラスタへの変換も行列Vと行列Wの積を適宜連結することで算出することができる。 Equations (3) and (4) are conversions to two adjacent clusters, but conversions to three or more adjacent clusters are also calculated by appropriately connecting the products of matrix V and matrix W. Can do.
ここでキャリブレーション誤差について説明する。各クラスタのキャリブレーション結果にはそれぞれの量子化誤差や実測時の誤差などが含まれる。そのため共通カメラの位置・姿勢を合致させて位置合わせを行うと、位置合わせされたクラスタ座標系の相対関係には誤差が重畳する。図6は、クラスタC1に対してクラスタC2、クラスタC3の順に連鎖位置合わせしたクラスタ座標系の相対関係を模式的に示したものである。クラスタC1のカメラ座標系Q1とクラスタC2のカメラ座標系Q4,Q5の間には実空間の各カメラの関係との誤差が生じ、同様にQ2とQ4,Q5の間にも誤差が生じる。そのためクラスタ間で人物位置の情報を交換すると実空間の位置との乖離が生じる。クラスタ間の誤差は位置合わせにより伝播し、連鎖に沿って離れるほど累積して大きくなり得る。例えば、Q1とQ1’の間にはQ1とQ5よりも大きな誤差が生じ得る。このような誤差の伝播は上記乖離を大きくし、カメラのループの終端において人物位置が整合しないという形で顕在化する。すなわちカメラシステム全体で人物位置の整合性をとることが困難となる。そのため、図6の例ではクラスタC3で検出された人物位置とクラスタC1で検出された人物位置を同定できない、若しくは接近した複数の人物を取り違えて同定してしまう問題が生じる。また、局所位置合わせを繰り返した場合も同じ問題が生じ、この場合はさらに人物の移動経路によって誤差の重畳パターンが変わるためにカメラシステム全体で人物位置の整合性をとることがより一層困難となる。
Here, the calibration error will be described. The calibration result of each cluster includes each quantization error and error at the time of actual measurement. For this reason, when the alignment is performed by matching the position and orientation of the common camera, an error is superimposed on the relative relationship of the aligned cluster coordinate system. FIG. 6 schematically shows the relative relationship of the cluster coordinate system in which the chain alignment is performed in the order of the cluster C2 and the cluster C3 with respect to the cluster C1. Between the camera coordinate
誤差行列342はカメラキャリブレーション誤差へ対処するためのものであり、本発明の特徴的な性質を有する部分である。誤差行列342は、各クラスタ座標系を、当該クラスタ座標系におけるカメラの位置・姿勢の配置関係を維持したまま共通カメラの位置・姿勢にて位置合わせしたときに、各クラスタ座標系の間に生じる誤差を定義する情報である。ここでの位置合わせは前述した局所位置合わせとは異なり、全クラスタの位置合わせであることから「全***置合わせ」と称する。全***置合わせされた全クラスタのクラスタ座標系は共通する1つの座標系に座標変換されることになる。この全***置合わせにより生成される全クラスタに共通の座標系を「統合座標系」と称する。なお本実施形態では、クラスタC1に対してクラスタC2,C3を全***置合わせすることとし、そのため統合座標系のXYZ軸と原点はクラスタC1のクラスタ座標系のそれらと一致する。記憶部34は、各クラスタ間の誤差行列342と、前述した変換行列341と、統合座標系の基準がクラスタC1のクラスタ座標系であることとを記憶する統合座標系記憶部としての機能を有する。
The
カメラキャリブレーション誤差が生じる問題については図6を用いて既に説明し、そこでは特にループ状のクラスタ配置ではループの端点同士のずれが顕在化する問題があることも説明した。なお、クラスタ間で座標変換を繰り返すほど、変換行列341に含まれる誤差成分が累積してトータルの誤差は増加する。
The problem that the camera calibration error occurs has already been described with reference to FIG. 6, in which it is also described that there is a problem that the deviation between the end points of the loop becomes apparent particularly in a loop-shaped cluster arrangement. As the coordinate transformation is repeated between clusters, the error components included in the
図7はカメラシステムの模式的な平面図であり、誤差行列342を説明するためのものである。同図に示すように、誤差行列342を導入した統合座標系では、各共通カメラはそれを共有する隣接クラスタの一方と他方とで別々の位置・姿勢を与えられる。つまり、図7においてC1におけるe3とC2におけるe3’、C2におけるe5とC3におけるe5’、及びC1におけるe1とC3におけるe1’とはそれぞれ実体としては同一のカメラe3,e5,e1である。
FIG. 7 is a schematic plan view of the camera system for explaining the
誤差行列342は、同一の共通カメラについてクラスタそれぞれにて別々に設定した位置間で定義され、変換行列341と同様、カメラ座標系における回転成分と平行移動成分からなる同次変換行列Eで定義でき、誤差を表すと共に座標変換をも表す。具体的には、カメラe3’からe3への間の変換行列E1と、カメラe5’からe5への変換行列E2が誤差行列342として記憶される。カメラe1とe1’との間の変換行列は、E1,E2が決まると従属的に一意に決まるものであるため特に定義を要しない。
The
誤差行列342を定義するメリットは、クラスタの各連結部分で誤差を持たせるので変換行列341を修正することなく、すなわちクラスタ内のカメラキャリブレーション情報を維持したまま、カメラシステム全体でキャリブレーション誤差の分散・吸収を図れることである。これにより、クラスタ内の物***置検出精度が劣化せず各クラスタからの物***置を統合できるので、全体として精度の良いトラッキングが可能となる。
The merit of defining the
ここで、誤差行列342及び変換行列341を使った座標変換の例として、クラスタC3のクラスタ座標系X3Y3Z3から統合座標系X1Y1Z1への変換について説明する。カメラキャリブレーション情報によりクラスタC3のクラスタ座標P3から、カメラe5’のカメラ座標Q5’が求まる。次に、カメラ座標Q5’からクラスタC2のカメラe5のカメラ座標Q5への変換は、
Q5 =E2・Q5’ (5)
となる。またカメラ座標Q5からカメラ座標Q3’への変換は、
Q3’=T53・Q5 (6)
となる。更に、カメラ座標Q3’からカメラ座標Q3への変換は、
Q3 =E1・Q3’ (7)
となる。最後に、カメラ座標Q3から統合座標系P1への変換はカメラキャリブレーション情報により求まる。この例では、クラスタC3のクラスタ座標から統合座標系P1への変換を行ったが、カメラe1’のカメラ座標系Q1’から統合座標系P1への変換も同様である。
Here, as an example of coordinate transformation using the
Q 5 = E 2・ Q 5 '(5)
It becomes. The conversion from the camera coordinate Q 5 to the camera coordinate Q 3 'is,
Q 3 '= T 53・ Q 5 (6)
It becomes. Furthermore, conversion from camera coordinates Q 3 ′ to camera coordinates Q 3 is
Q 3 = E 1・ Q 3 '(7)
It becomes. Finally, the conversion from the camera coordinate Q 3 to the integrated coordinate system P 1 is determined by camera calibration information. In this example, it was converted from the cluster coordinate cluster C3 to integrate coordinates P 1, the conversion from 'the camera coordinate system to Q 1' camera e1 to combined coordinate system P 1 is the same.
誤差行列342は後述する最適化処理部32により求められる。
The
座標変換部30は、各クラスタのカメラキャリブレーション情報、変換行列341、誤差行列342を用いて、式(1)による隣接クラスタ間の座標変換、式(3)等による任意のクラスタ間の座標変換、及び式(5)〜(7)等によるクラスタ座標系から統合座標系への変換を行う。
The coordinate
変換行列生成部31は、各クラスタのカメラキャリブレーション情報から各クラスタ内の変換行列341を生成する。上述したように変換行列341は各クラスタ座標系における共通カメラの位置・姿勢から、当該クラスタ座標系に対する当該共通カメラのカメラ座標系への回転量及び平行移動量を求めて、行列V及びWを算出し、これらに式(2)及び式(4)を適用することで算出される。
The conversion
最適化処理部32は、各クラスタ間の誤差がカメラシステム全体で最小化するように誤差行列342を定めることにより統合座標系の生成を行う。例えば、図7に示すカメラシステムではクラスタC1とC2との間、クラスタC2とC3との間、及びクラスタC3とC1との間の誤差の合計を最小化する。具体的には、誤差行列E1,E2それぞれの回転成分の回転角をθm1,θm2、誤差行列E1,E2それぞれの平行移動成分の移動量をdm1,dm2、またクラスタC1のカメラe1からクラスタC3のカメラe1’への変換の回転角をθe、移動量をdeと表すと、例えば、次式で定義する積算誤差USUMを最小化する。
USUM=Uθ+α×Ud (8)
The optimization processing unit 32 generates an integrated coordinate system by defining an
U SUM = U θ + α × U d (8)
ここで、Uθ,Udはそれぞれ次式で定義する回転誤差の和、移動誤差の和である。αは重み係数であり、例えば、UθとUdとの単位の相違を調整し、回転角の誤差と移動量の誤差とが均等に評価されるように設定することができる。
Uθ= |θm1|+|θm2|+|θe| (9)
Ud= dm1+dm2+de (10)
Here, U θ and U d are the sum of rotation errors and the sum of movement errors defined by the following equations, respectively. α is a weighting factor, and can be set so that, for example, the difference in unit between U θ and U d is adjusted so that the error in the rotation angle and the error in the movement amount are equally evaluated.
U θ = | θ m1 | + | θ m2 | + | θ e | (9)
U d = d m1 + d m2 + d e (10)
θe及びdeは次のように求められる。カメラe1’のカメラ座標系の原点と座標軸ベクトルを、座標変換部30により統合座標系に変換する。座標変換部30は、クラスタC1を始端クラスタ、クラスタC3を終端クラスタに設定し、始端クラスタから終端クラスタまでを連鎖位置合わせした変換行列S31を生成して、変換行列S31により統合座標系への変換を行う。一方、カメラe1のカメラ座標系の原点と座標軸ベクトルを基準座標系で表す。これら2つの原点座標のオフセットを移動量deとし、座標軸ベクトルの回転角をθeとする。
theta e and d e is determined as follows. The origin and the coordinate axis vector of the camera coordinate system of the camera e1 ′ are converted into an integrated coordinate system by the coordinate
さて、既に述べたように、カメラe1とe1’との間の変換は、E1,E2が決まると従属的に一意に決まる。つまり、θe及びdeは独立のパラメータではなく、E1,E2から計算されるパラメータである。よって、E1,E2を最適化することによりUSUMの最小化が図られる。最適化処理は一般的に用いられる、例えば、最急降下法、マルコフ連鎖モンテカルロ法(Markov chain Monte Carlo methods:MCMC法)などの手法を用いて行うことができ、当該最適化により誤差行列342が決定される。
Now, as already described, the conversion between the cameras e1 and e1 ′ is uniquely determined dependently when E 1 and E 2 are determined. That is, the theta e and d e not independent parameters are parameters which are calculated from
座標統合処理部33は物***置統合部としての機能を有し、当該機能は各クラスタ処理部2から入力される人物位置を隣接クラスタ間で照合し同一人物の対応付けを行うクラスタ間追跡継承機能、及びクラスタごとの人物位置を統合座標系に統合して出力する追跡統合機能を含む。
The coordinate
まず、クラスタ間追跡継承機能について説明する。当該機能では、隣接クラスタそれぞれから同時刻に検出された人物位置を座標変換部30を用いて局所位置合わせして位置合わせされた人物位置のうち予め設定された同定しきい値よりも近接している人物位置同士を同一人物によるものと判定することで、クラスタ間での同一物体の対応付けを行う。
First, the inter-cluster tracking inheritance function will be described. In this function, the position of a person detected at the same time from each adjacent cluster is locally aligned by using the coordinate
図8は座標統合処理部33の機能を説明する模式図であり、同図を用いて、クラスタ間追跡継承機能及び追跡統合機能について具体的に説明する。クラスタC1とクラスタC2との間での1人の人間の対応付けを考える。図8(a)は、局所位置合わせした場合の2つのクラスタの配置を示す模式的な平面図である。また同図(b)は全***置合わせした場合の2つのクラスタの配置を模式的に示しており、誤差が含まれるため共通カメラe3の位置がクラスタC1,C2でずれている様子が示されている。
FIG. 8 is a schematic diagram for explaining the function of the coordinate
また、図8(c)はクラスタC1にて検出された1人の人間の人物位置を三角印(▲)で示し、図8(d)はクラスタC2にて検出された同一人の人物位置を四角印(■)で示している。ここではこれらC1,C2での人物位置は共通カメラe3の視野内で同一時刻に得られたものとする。 FIG. 8C shows the position of one person detected by the cluster C1 with a triangle (▲), and FIG. 8D shows the position of the same person detected by the cluster C2. It is indicated by a square mark (■). Here, it is assumed that the person positions in C1 and C2 are obtained at the same time within the field of view of the common camera e3.
図8(e)は同図(c),(d)を局所位置合わせした様子を示しており、クラスタの配置は図8(a)の状態に相当する。また、図8(f)は全***置合わせした様子を示しており、クラスタの配置は図8(b)の状態に相当する。これら2つの図を比較してわかるように、誤差成分を含む場合(図8(f))は、それぞれのクラスタで求まった三角(▲)及び四角(■)の位置が誤差成分の影響で誤差成分を含まない場合(図8(e))よりも離れる。 FIG. 8 (e) shows a state where local alignment is performed in FIGS. 8 (c) and (d), and the arrangement of the clusters corresponds to the state of FIG. 8 (a). Further, FIG. 8F shows a state where the entire positions are aligned, and the arrangement of the clusters corresponds to the state shown in FIG. As can be seen by comparing these two figures, when the error component is included (FIG. 8 (f)), the position of the triangle (▲) and square (■) obtained in each cluster is affected by the error component. It is further away than when no component is included (FIG. 8E).
ここで、誤差行列342はカメラシステム全体としての整合性をとるためのものであるため、検出結果をクラスタ間で対応付けるという局所的な処理において誤差行列342の誤差成分は考慮する必要がない。また、人が大勢いる場合にはこのような誤差成分を考慮に入れることにより離れてしまう検出位置を用いると、対応付けを誤る可能性がある。
Here, since the
そこで、クラスタ間追跡継承機能においては、図8(e)に示すように、共通カメラを共有する隣接クラスタそれぞれのクラスタ座標系を当該共通カメラの外部パラメータを合致させる局所位置合わせにより人物位置を位置合わせして同定する。すなわち、当該共通カメラの視野にて追跡された各クラスタでの人物位置を局所位置合わせした座標系にて対応付け、クラスタ間での同一人を決定する。 Therefore, in the inter-cluster tracking inheritance function, as shown in FIG. 8 (e), the position of the person is positioned by local alignment in which the cluster coordinate system of each adjacent cluster sharing the common camera matches the external parameter of the common camera. Identify together. That is, a person position in each cluster tracked in the field of view of the common camera is associated with a coordinate system that is locally aligned, and the same person is determined between the clusters.
一方、共通カメラを合致させる位置合わせにはキャリブレーション誤差の問題がある。そこで、座標統合処理部33は追跡統合機能において、クラスタ間追跡継承機能により同一人とされたクラスタごとの人物位置について、それらの統合座標系における位置に基づいて一つの統合物***置を算出し、クラスタの接続部分での追跡結果とする。このとき、統合物***置は全てのクラスタの位置関係をみて整合性のとれた位置とする必要がある。そこで、座標統合処理部33は、最適化処理部32により積算誤差を最小化した配置関係のクラスタでの人物位置に基づいて統合物***置を算出する。つまり、クラスタ間の誤差成分を考慮した配置関係で、対応付け後の人の新たな座標を計算する。よって、図8の例では同図(f)の状態で人の新たな座標が計算される。例えば、当該座標の計算方法として、対応付けられた2点の平均の位置(図8(f)における“×”印の位置)を、対応付け後の座標とすることができる。
On the other hand, there is a problem of calibration error in the alignment for matching the common camera. Therefore, in the tracking integration function, the coordinate
なお、既に述べたように、対応付けはクラスタ間でオーバーラップする領域にいる人間についてのみ行う。また、オーバーラップする領域に人間が複数存在する場合に対応するため、組み合わせ最適化処理により対応を求める。この際、座標間の距離が小さい程対応付けされやすくなるようにコストを設定する。 Note that as described above, the association is performed only for a person who is in an overlapping area between clusters. Further, in order to cope with the case where there are a plurality of people in the overlapping region, the correspondence is obtained by the combination optimization process. At this time, the cost is set so that the smaller the distance between the coordinates is, the easier the association is.
次に本実施形態のカメラシステムにおけるカメラキャリブレーション時の動作、及び移動物体の追跡動作について説明する。既に述べたように、画像処理部1はカメラシステムの設置時等に、各クラスタにおけるキャリブレーション、及びクラスタ間でのループキャリブレーションを行い、その結果を利用して複数台のカメラの画像を用いた移動物体追跡を行う。
Next, the operation at the time of camera calibration and the tracking operation of the moving object in the camera system of this embodiment will be described. As described above, the
[各クラスタのカメラキャリブレーション]
図9は各クラスタのカメラキャリブレーションの概略のフロー図である。クラスタを構成する各カメラからクラスタ処理部2に基準物体が映った画像を入力する(ステップS50)。入力された画像における特徴点の位置を特定する(ステップS51)。特徴点の位置の特定は、作業者が出力装置5に表示される画像にて特徴点を認識し入力装置4から指定することもできるし、クラスタ処理部2が自動的に抽出する構成とすることもできる。画像上での特徴点の位置に基づいてキャリブレーション実行部20がカメラキャリブレーションを行い、算出された各カメラの外部パラメータ等のキャリブレーション結果は記憶部22に格納される(ステップS52)。
[Camera calibration for each cluster]
FIG. 9 is a schematic flowchart of camera calibration of each cluster. An image in which the reference object is reflected is input from each camera constituting the cluster to the cluster processing unit 2 (step S50). The position of the feature point in the input image is specified (step S51). The position of the feature point can be specified by the operator by recognizing the feature point from the image displayed on the
[ループキャリブレーション]
図10はループキャリブレーションの概略のフロー図である。統合処理部3は、クラスタ処理部2の記憶部22に保存してある各クラスタのカメラキャリブレーション情報を読み込み(ステップS60)、また統合処理部3の記憶部34に保存してあるクラスタ構成情報340を読み込む(ステップS61)。そして、変換行列生成部31により、読み込んだカメラキャリブレーション情報より変換行列341を求め(ステップS62)、最適化処理部32により最適化処理を行って誤差行列342を求める(ステップS63)。
[Loop calibration]
FIG. 10 is a schematic flowchart of loop calibration. The
[追跡動作]
図11は追跡動作時に行われる座標統合処理の概略のフロー図である。各クラスタ処理部2は、担当するクラスタの各カメラから画像を入力し(ステップS70)、3次元追跡部21により当該クラスタ内での追跡処理を実行してクラスタ座標系の人物位置を検出し、検出した人物位置を統合処理部3に出力する(ステップS71)。統合処理部3は、入力された各人物位置に対して座標変換部30により全***置合わせを行って統合座標系の値に変換し、変換後の各人物位置を記憶部34に記憶させる(ステップS72)。ここで算出された統合座標系の人物位置のうち隣接クラスタで別々に検出された同一人物の人物位置は以降の処理により1つにまとめられる。
[Tracking motion]
FIG. 11 is a schematic flowchart of coordinate integration processing performed during the tracking operation. Each
統合処理部3は、人物位置が検出された隣接クラスタ間で同一人物の対応付けを行う(ステップS73〜S82)。具体的には、各隣接クラスタ組を指定する隣接番号Iを1から1ずつインクリメントしながら(ステップS73,S82)、クラスタ校正情報340から該当する隣接クラスタの情報を読み出して隣接クラスタ組Iを構成する2つのクラスタi及びjを特定し(ステップS74)、クラスタiからの人物位置とクラスタjからの人物位置とが入力されていれば(ステップS75にてYES)、これらのクラスタ間にて対応付けを行う。他方、クラスタiからの人物位置が入力されていないか、クラスタjからの人物位置が入力されていなければ(ステップS75にてNO)、隣接クラスタ組Iに対応付け処理の対象はないとして次の隣接クラスタ組の処理に進む。
The
対応付け処理の対象がある場合、統合処理部3は、変換行列341からクラスタi及びクラスタjの組み合わせに対応する行列Tijを読み出して、座標変換部30によりクラスタiにて検出された人物位置をクラスタjのクラスタ座標系に変換することで局所位置合わせを行う(ステップS76)。これは上述したように誤差成分を除いた状態で対応付けを行うためである。なお、ステップS76で処理される値はステップS72で算出された統合座標系の値ではなく、各クラスタ座標系の値である。統合処理部3は座標統合処理部33により、局所位置合わせされたクラスタiの人物位置とクラスタjの人物位置とに対して組み合わせ最適化による対応付けを行う(ステップS77)。すなわち隣接クラスタ間で人物位置の総当たり組み合わせを設定して各組み合わせで人物位置間の距離を算出し、一方のクラスタの各人物位置に対して最も距離の近い組み合わせのみを選定し、選定された組み合わせのうち距離が予め設定された同定しきい値以下の組み合わせを対応付ける。
When there is a target for the association processing, the
座標統合処理部33は、隣接クラスタ間にて局所位置合わせにより対応付いた人物位置の組み合わせがあれば(ステップS78にてYES)、これと同じ組み合わせを、当該隣接クラスタそれぞれについてステップS72にて記憶部34に書き込んだ統合座標系の人物位置の中から読み出す。そして、隣接クラスタ組を構成するクラスタそれぞれについて読み出した統合座標系の値の平均値を統合物***置として算出し(ステップS79)、読み出した各隣接クラスタの人物位置を当該統合物***置に置き換える(ステップS80)。なお、対応付いた人物位置がない場合(ステップS78にてNO)、ステップS79,S80の処理はスキップされる。
If there is a combination of person positions associated by local alignment between adjacent clusters (YES in step S78), the coordinate
全ての隣接クラスタ組について対応付けが終了するまで(ステップS81)、統合処理部3は隣接番号IをインクリメントしてステップS74〜S80の対応付け処理を繰り返す。
Until the association is completed for all adjacent cluster groups (step S81), the
上述の座標統合処理により、クラスタごとの人の追跡結果がカメラシステム全体で整合性を有するように統合される。画像処理部1は人の複数のクラスタに亘る行動についての判定を、統合された追跡結果に基づいて行う。また、出力装置5への追跡結果の画像表示には統合された追跡結果を用いる。クラスタ間の座標系の誤差が最小化された統合座標系での追跡結果は移動軌跡がクラスタ間にて滑らかになるので、統合された追跡結果を用いた人の移動速度や動きのパターンの精度が向上し、それらに基づいた人の行動認識の精度が向上する。また、軌跡が滑らかになることにより、画像表示での移動軌跡の表示が見やすくなる効果も得られる。
By the coordinate integration process described above, the tracking results of the persons for each cluster are integrated so as to have consistency in the entire camera system. The
以上説明したように本発明に係るカメラシステムでは、カメラシステムを構成する全カメラで共通視野が確保できない場合に、共通視野を有するクラスタごとに物***置を求め、それを全クラスタに亘る統合座標系にまとめることで、広範囲での物***置を求め、移動物体の行動分析等を可能としている。統合座標系は、クラスタ内のカメラの位置関係は保持し、カメラキャリブレーシの誤差をクラスタ間の複数の接続部分にて、最適化しつつ分散するように設定され、これにより、クラスタ内のトラッキング処理での移動物体の座標について高い検知精度が実現される。また、移動物体がクラスタをまたぐときは共通カメラで位置合わせして同一物体を同定するので追跡結果を高精度のまま引き継ぐことができる。 As described above, in the camera system according to the present invention, when a common field of view cannot be secured in all the cameras constituting the camera system, an object position is obtained for each cluster having the common field of view, and the integrated coordinate system over all the clusters is obtained. Thus, the object position in a wide range can be obtained and the behavior analysis of the moving object can be performed. The integrated coordinate system maintains the positional relationship of the cameras in the cluster and is set to distribute the camera calibration error while optimizing it at multiple connections between the clusters. High detection accuracy is realized for the coordinates of the moving object. In addition, when the moving object crosses the cluster, the same object is identified by positioning with the common camera, so that the tracking result can be taken over with high accuracy.
隣接クラスタ間での同一人物の対応付け処理では、座標間の距離に基づく対応付けという非常に簡単な処理により人物位置のクラスタ間での統合を行っているが、上述のようにクラスタ内での人物位置の検出精度が高いため、このような簡単な処理であっても対応付けを誤る可能性が低く抑えられる。すなわち、クラスタ内での人物位置の高い検知精度が、座標の対応付け精度を担保している。さらに言えば、クラスタ内での人の検知座標の精度は、上述したようにカメラキャリブレーション精度に依存することから、最終的に、クラスタ内のカメラキャリブレーションの精度が、対応付け精度を担保している。 In the process of associating the same person between adjacent clusters, the person positions are integrated between the clusters through a very simple process of associating based on the distance between the coordinates. Since the detection accuracy of the person position is high, the possibility of erroneous association is suppressed even with such a simple process. That is, the high detection accuracy of the person position in the cluster guarantees the coordinate matching accuracy. Furthermore, since the accuracy of the human detection coordinates in the cluster depends on the camera calibration accuracy as described above, the accuracy of the camera calibration in the cluster guarantees the matching accuracy in the end. ing.
なお、上述の実施形態ではクラスタがループ状に接続される例を説明した。ループ状のクラスタ接続では、ループを一周したときのずれによりカメラキャリブレーション全体の誤差を評価することができ、本発明では当該誤差を各クラスタ間に分散する。ここで、カメラキャリブレーション全体の誤差を各クラスタ間にて最適化しつつ分散するという本発明の構成は、全体の誤差を何らかの形で検知できれば、クラスタがループ状に閉合した形状に接続される場合に限らず、例えば、直鎖状やツリー状の開放した端部を有する形状に接続される場合にも適用することができる。例えば、部屋や廊下など形状が把握できる監視空間においては、監視空間の形状とクラスタの配置とを対比し、監視空間の壁からの距離などに基づいてクラスタのキャリブレーション誤差を検知して、本発明を適用することが可能である。 In the above-described embodiment, an example in which clusters are connected in a loop has been described. In a loop-shaped cluster connection, an error of the entire camera calibration can be evaluated by a deviation when the loop is made around. In the present invention, the error is distributed among the clusters. Here, the configuration of the present invention that optimizes and distributes the error of the entire camera calibration between the clusters is, if the entire error can be detected in some form, the cluster is connected in a closed loop shape However, the present invention is not limited to this, and can also be applied to a case where a linear or tree-like open end is connected. For example, in a monitoring space such as a room or corridor where the shape can be grasped, the shape of the monitoring space is compared with the arrangement of the cluster, and the calibration error of the cluster is detected based on the distance from the wall of the monitoring space. The invention can be applied.
また、上記実施形態では、座標統合処理部33による隣接クラスタ間の対応付け後の新たな座標(統合物***置)は、対応付けられた2点の中点に設定している。しかし、統合物***置は中点以外とすることもできる。例えば、対応付けられた2点を結ぶ線分を内分する点に設定することができる。また、2つのクラスタ間の共通カメラの視野内にて対応付けられた2点又はその中点がどちらのクラスタに近いかを評価し、近い方のクラスタにて得られた物***置の重みを他方のクラスタにて得られた物***置より大きくする重み付け平均とすることもできる。
Moreover, in the said embodiment, the new coordinate (integrated object position) after the correlation between the adjacent clusters by the coordinate
上述の実施形態では、簡単な例としてクラスタが3台のカメラからなる場合を示したが、クラスタを構成する複数のカメラの台数はこれに限定されない。 In the above-described embodiment, the case where the cluster includes three cameras is shown as a simple example, but the number of the plurality of cameras constituting the cluster is not limited to this.
また、クラスタ間での物***置の対応付けは、当該クラスタの視野のオーバーラップ部分での各クラスタの物***置の間で行うのが好適であるが、オーバーラップ部分を有さないクラスタ間であっても、互いの視野が或る程度近接していれば、例えば、移動元のクラスタでの追跡結果から移動先での或る時刻tの物***置を推定し、これと当該時刻tにて移動先で実際に検知される物***置とを対応付けたり、近接した視野のクラスタの一方にて時刻tに検知された物***置と他方にて時刻tに近い時刻t’に検知された物***置とを対応付けたりする近似的な対応付けを行うことも可能である。 In addition, it is preferable to associate the object positions between the clusters between the object positions of each cluster in the overlapping part of the field of view of the cluster, but between the clusters having no overlapping part. However, if the fields of view are close to each other, for example, an object position at a certain time t at the movement destination is estimated from the tracking result in the movement source cluster, and the object moves at the time t. The object position detected at the time t in one of the clusters in the near field of view and the object position detected at the time t ′ near the time t on the other It is also possible to perform an approximate association that associates.
1 画像処理部、2 クラスタ処理部、3 統合処理部、4 入力装置、5 出力装置、20 キャリブレーション実行部、21 3次元追跡部、22,34 記憶部、30 座標変換部、31 変換行列生成部、32 最適化処理部、33 座標統合処理部、340 クラスタ構成情報、341 変換行列、342 誤差行列、C1〜C3 クラスタ、e1〜e6 カメラ。 1 image processing unit, 2 cluster processing unit, 3 integration processing unit, 4 input device, 5 output device, 20 calibration execution unit, 21 3D tracking unit, 22, 34 storage unit, 30 coordinate conversion unit, 31 transformation matrix generation Unit, 32 optimization processing unit, 33 coordinate integration processing unit, 340 cluster configuration information, 341 transformation matrix, 342 error matrix, C1-C3 cluster, e1-e6 camera.
Claims (4)
前記クラスタごとに設定したクラスタ座標系、並びに当該クラスタ座標系における前記各カメラの位置及び姿勢を記憶するクラスタ校正情報記憶部と、
前記各クラスタ座標系における前記カメラの位置及び姿勢の配置関係を維持したまま、前記共通カメラを共有する複数の前記クラスタそれぞれの前記クラスタ座標系における当該共通カメラの位置及び姿勢の間に所定範囲の誤差を許容することにより当該クラスタ座標系の相互の配置関係を調整した、全クラスタに亘る統合座標系を記憶する統合座標系記憶部と、
前記クラスタごとに、前記カメラが撮像した物体の画像を解析して当該クラスタの前記クラスタ座標系における当該物体の物***置を検出する物***置検出部と、
前記物***置検出部により検出された前記クラスタ座標系での前記物***置を前記統合座標系に変換して出力する物***置統合部と、
を備えたことを特徴とするカメラシステム。 A plurality of clusters which are a group of cameras having a common field of view within the field of view, the plurality of clusters share a common camera in adjacent clusters and are linked to each other , and at least one of the clusters other than the common camera A camera system in which
A cluster coordinate information storage unit that stores a cluster coordinate system set for each cluster, and the position and orientation of each camera in the cluster coordinate system;
While maintaining the positional relationship between the position and orientation of the camera in each cluster coordinate system , a predetermined range between the position and orientation of the common camera in the cluster coordinate system of each of the plurality of clusters sharing the common camera . An integrated coordinate system storage unit for storing an integrated coordinate system across all clusters, wherein the mutual arrangement relationship of the cluster coordinate system is adjusted by allowing an error;
For each cluster, an object position detection unit that detects an object position of the object in the cluster coordinate system of the cluster by analyzing an image of the object captured by the camera;
An object position integration unit that converts the object position in the cluster coordinate system detected by the object position detection unit into the integrated coordinate system and outputs the converted object position;
A camera system comprising:
前記複数のクラスタはループ状に連鎖し、
前記統合座標系は、ループ上の全ての前記共通カメラについて積算した前記誤差を最小化するように定められていること、
を特徴とするカメラシステム。 The camera system according to claim 1,
The plurality of clusters are chained in a loop,
The integrated coordinate system is defined to minimize the error accumulated for all the common cameras on the loop;
A camera system characterized by
前記物***置統合部は、前記クラスタ座標系における前記共通カメラの前記位置及び姿勢を前記隣り合うクラスタにて合致させて、当該隣り合うクラスタのそれぞれから検出された前記物***置を照合し同一物体の対応付けを行うこと、を特徴とするカメラシステム。 The camera system according to claim 1 or 2,
The object position integration unit matches the position and orientation of the common camera in the cluster coordinate system in the adjacent clusters, collates the object positions detected from the adjacent clusters, and A camera system characterized by performing association.
前記物***置統合部は、前記同一物体として対応付けされた前記物***置のうち、前記隣り合うクラスタそれぞれから同一時刻に検出された複数の物***置を前記統合座標系における当該物***置の内分点に置き換えて出力すること、を特徴とするカメラシステム。 The camera system according to claim 3.
The object position integration unit includes a plurality of object positions detected at the same time from the adjacent clusters among the object positions associated as the same object, and an internal dividing point of the object position in the integrated coordinate system. A camera system characterized by being output in place of
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011235737A JP5886594B2 (en) | 2011-10-27 | 2011-10-27 | Camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011235737A JP5886594B2 (en) | 2011-10-27 | 2011-10-27 | Camera system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013093787A JP2013093787A (en) | 2013-05-16 |
JP5886594B2 true JP5886594B2 (en) | 2016-03-16 |
Family
ID=48616571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011235737A Active JP5886594B2 (en) | 2011-10-27 | 2011-10-27 | Camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5886594B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501462B2 (en) | 2019-12-13 | 2022-11-15 | Sony Group Corporation | Multi-view three-dimensional positioning |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101453815B1 (en) * | 2014-08-01 | 2014-10-22 | 스타십벤딩머신 주식회사 | Device and method for providing user interface which recognizes a user's motion considering the user's viewpoint |
JP6447706B1 (en) * | 2017-12-20 | 2019-01-09 | オムロン株式会社 | Calibration data generation apparatus, calibration data generation method, calibration system, and control program |
KR101916093B1 (en) * | 2018-04-20 | 2018-11-08 | 유한회사 한국케이비에프 | Method for tracking object |
TWI779029B (en) * | 2018-05-04 | 2022-10-01 | 大猩猩科技股份有限公司 | A distributed object tracking system |
CN108898636B (en) * | 2018-06-08 | 2022-03-29 | 福州大学 | Camera one-dimensional calibration method based on improved PSO |
KR101996907B1 (en) * | 2018-07-27 | 2019-07-08 | 비티에스 유한회사 | Apparatus for tracking object |
US20220156977A1 (en) * | 2019-03-26 | 2022-05-19 | Nec Corporation | Calibration apparatus, calibration method, and non-transitory computer readable medium storing program |
JP7497188B2 (en) | 2020-03-27 | 2024-06-10 | 株式会社国際電気通信基礎技術研究所 | Calibration equipment, training equipment, and computer programs |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010199701A (en) * | 2009-02-23 | 2010-09-09 | Fujitsu Ltd | Image processing apparatus, image processing method, and image processing program |
JP2010273091A (en) * | 2009-05-21 | 2010-12-02 | Nippon Telegr & Teleph Corp <Ntt> | Broad band multi-view-point camera calibration method, broad band multi-view-point camera calibration device, and program |
JP2011086111A (en) * | 2009-10-15 | 2011-04-28 | Mitsubishi Electric Corp | Imaging apparatus calibration method and image synthesis device |
-
2011
- 2011-10-27 JP JP2011235737A patent/JP5886594B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501462B2 (en) | 2019-12-13 | 2022-11-15 | Sony Group Corporation | Multi-view three-dimensional positioning |
Also Published As
Publication number | Publication date |
---|---|
JP2013093787A (en) | 2013-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5886594B2 (en) | Camera system | |
KR101184170B1 (en) | Volume recognition method and system | |
Joo et al. | Panoptic studio: A massively multiview system for social motion capture | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
JP5111210B2 (en) | Image processing apparatus and image processing method | |
JP6221390B2 (en) | Image processing apparatus, program, and image processing method | |
JP5147761B2 (en) | Image monitoring device | |
WO2019225547A1 (en) | Object tracking device, object tracking method, and object tracking program | |
KR102371127B1 (en) | Gesture Recognition Method and Processing System using Skeleton Length Information | |
Liu et al. | A computer vision-based assistant system for the assembly of narrow cabin products | |
JP2019079487A (en) | Parameter optimization device, parameter optimization method and program | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
JP7379065B2 (en) | Information processing device, information processing method, and program | |
JP4288428B2 (en) | Video analysis system and video analysis method | |
JP5147760B2 (en) | Image monitoring device | |
Kwolek et al. | Real-time multi-view human motion tracking using particle swarm optimization with resampling | |
JP4507243B2 (en) | Behavior analysis method and system | |
JP2013051477A (en) | Video monitoring device, video monitoring method, and program | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
Schacter et al. | A multi-camera active-vision system for deformable-object-motion capture | |
JP6548683B2 (en) | Object image estimation device and object image determination device | |
WO2020070856A1 (en) | Coordinate value integration device, coordinate value integration system, coordinate value integration method, and coordinate value integration program | |
Gonzalez-Tejeda et al. | Calvis: Chest, waist and pelvis circumference from 3d human body meshes as ground truth for deep learning | |
JP7462178B1 (en) | Automatic moving object tracking device, automatic moving object tracking method, and automatic moving object tracking program | |
Sigalas et al. | Visual estimation of attentive cues in HRI: the case of torso and head pose |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5886594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |