JP2017103602A - 位置検出装置、位置検出方法及びプログラム - Google Patents

位置検出装置、位置検出方法及びプログラム Download PDF

Info

Publication number
JP2017103602A
JP2017103602A JP2015235044A JP2015235044A JP2017103602A JP 2017103602 A JP2017103602 A JP 2017103602A JP 2015235044 A JP2015235044 A JP 2015235044A JP 2015235044 A JP2015235044 A JP 2015235044A JP 2017103602 A JP2017103602 A JP 2017103602A
Authority
JP
Japan
Prior art keywords
camera
cameras
information
detected
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015235044A
Other languages
English (en)
Other versions
JP6700752B2 (ja
Inventor
内山 寛之
Hiroyuki Uchiyama
寛之 内山
矢野 光太郎
Kotaro Yano
光太郎 矢野
一郎 梅田
Ichiro Umeda
一郎 梅田
睦凌 郭
Muling Guo
睦凌 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015235044A priority Critical patent/JP6700752B2/ja
Priority to US15/363,248 priority patent/US10212324B2/en
Publication of JP2017103602A publication Critical patent/JP2017103602A/ja
Application granted granted Critical
Publication of JP6700752B2 publication Critical patent/JP6700752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】物体が映っているカメラの台数によらず、物体の3次元的な位置を精度良く取得できるようにする。
【解決手段】各カメラから得られたカメラ画像中の人物頭部の位置に応じて人物の3次元位置を推定する方法を切り替える。具体的には、カメラの視野の重なりのある画像領域に人物の頭部がある場合は、画像解析によって人物の3次元位置を推定し、カメラの視野の重なりのある画像領域以外に人物の頭部がある場合は、追尾ラベルが同一である物体情報、または平均的な人物の高さの情報を用いて人物の3次元位置を推定する。
【選択図】図1

Description

本発明は、特に、複数のカメラを用いて物体の3次元的な位置を取得するために用いて好適な位置検出装置、位置検出方法及びプログラムに関する。
従来、監視カメラシステムにおいて、複数のカメラを監視領域に配置し、複数のカメラで同一の物体を同時に撮像することにより、物体の3次元的な位置(以下、3次元位置)を推定する手法が知られている。例えば、特許文献1及び2には、カメラの位置及び姿勢と、カメラ画像上の物体の位置とから、ステレオ視の原理で物体の3次元位置を推定する方法が開示されている。また、特許文献3には、事前に定めた人物の平均的な身長とカメラキャリブレーションとにより得られるカメラパラメータを用いて人の足元の位置を推定する方法が開示されている。
特開2011−511427号公報 特開2008−228582号公報 特開2014−238674号公報
Zhengyou Zhang「A Flexible New Technique for Camera Calibration」,IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330−1334, 2000 Pierre Moulon, Pascal Monasse, and Renaud Marlet「Adaptive structure from motion with a contrario model estimation」ACCV2012 M.D.Breitenstein et al.,「Robust tracking−by−detection using a detector confidence particle filter」,ICCV2009
ところが、特許文献1及び2に記載の方法は、複数のカメラによりステレオ視の原理で物体の3次元位置を推定するが、1台のカメラのみで物体が観測されている状況ではステレオ視が困難であり、物体の位置を推定する精度が低下するという問題がある。
ここで、1台のカメラのみで物体が観測される状況は、例えば監視領域へ配置するカメラの台数が少ない場合など、複数のカメラの視野が重ならない監視領域が存在する場合に発生する。また、複数のカメラの視野が重なっている場合においても、物体の検出漏れが生じた場合や他の物体によって物体が遮蔽された場合など、1台のカメラからしか物体が観測できない場合がある。このため、1台のカメラのみで物体が観測される状況を防ぐために、監視領域に多数のカメラを配置する必要がある。
また、特許文献3に記載の方法では、事前に定めた人物の平均的な身長を用いて足元の位置を推定するため、平均的な体格から離れた人物または子供を監視する場合には、物体の位置を推定する精度が大きく低下するという問題がある。また、平均的な身長の人物であっても、カメラと人物の頭部とを通る直線が水平に近いほど、位置を推定した場合の誤差は増大してしまう。
本発明は前述の問題点に鑑み、物体が映っているカメラの台数によらず、物体の3次元的な位置を精度良く取得できるようにすることを目的としている。
本発明に係る位置検出装置は、複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段と、前記複数のカメラからそれぞれカメラ画像を取得する画像取得手段と、前記画像取得手段によって取得されたカメラ画像から物体を検出する検出手段と、前記複数のカメラの中の少なくとも2つのカメラで視野が重複する位置に前記検出手段によって検出された物体が存在するか否かを判定する第1の判定手段と、前記第1の判定手段により前記検出された物体が前記視野が重複する領域に存在すると判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定手段と、前記第1の位置推定手段によって推定された3次元的な位置の情報を含む物体情報を記憶する第2の記憶手段と、前記第1の判定手段により前記検出された物体が前記視野が重複する領域に存在しないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定手段とを備えることを特徴とする。
本発明によれば、物体が映っているカメラの台数によらず、物体の3次元的な位置を精度良く取得することができる。
第1の実施形態に係る位置検出装置の機能構成例を示すブロック図である。 実施形態に係る位置検出装置のハードウェア構成例を示すブロック図である。 第1の実施形態における4つのカメラの位置関係を説明するための図である。 第1の実施形態において、物体の3次元位置を取得する処理手順の一例を示すフローチャートである。 キャリブレーションの概要を説明するための図である。 視野重複画像領域内の物体の3次元位置を推定する詳細な処理手順の一例を示すフローチャートである。 第1の実施形態において、視野重複画像領域外の物体の3次元位置を推定する詳細な処理手順の一例を示すフローチャートである。 カメラ画像間において人物を対応付ける方法を説明するための図である。 物体の3次元位置を推定する方法を説明するための図である。 視野重複画像領域を取得する方法を説明するための図である。 物体の高さ座標から物体の3次元位置を推定する方法を説明するための図である。 処理結果の表示画面の一例を示す図である。 第2の実施形態に係る位置検出装置の機能構成例を示すブロック図である。 第2の実施形態における4つのカメラの位置関係を説明するための図である。 第2の実施形態において、物体の3次元位置を取得する処理手順の一例を示すフローチャートである。 第2の実施形態において、視野重複画像領域外の物体の3次元位置を推定する詳細な処理手順の一例を示すフローチャートである。 第3の実施形態において、物体の3次元位置を取得する処理手順の一例を示すフローチャートである。
以下、本発明の実施形態について説明する。以下では、検出対象物体として人物を例に説明するが、他の検出対象の物体でもよく、例えば、車両、動物などでもよい。
(第1の実施形態)
図2は、本実施形態に係る位置検出装置100のハードウェア構成例を示すブロック図である。
図2において、第1のカメラ201〜第nのカメラ20nは、それぞれCCD、CMOS等で構成され、被写体像を光から電気信号に変換するための撮像素子を備えたカメラであり、2台以上存在する。信号処理回路212は、第1のカメラ201〜第nのカメラ20nのそれぞれから得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する回路である。
CPU213は、ROM214に格納されている制御プログラムを実行することにより、位置検出装置100全体の制御を行う。ROM214は、CPU213が実行する制御プログラムや各種パラメータデータ等を格納する。制御プログラムは、CPU213で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、位置検出装置100を機能させる。RAM215は、画像データや各種情報などを記憶する。また、RAM215は、CPU213のワークエリア及びデータの一時待避領域として機能する。ディスプレイ216は、画像及び各種情報を表示するための表示部である。
なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU213を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本実施形態に係る位置検出装置100は、第1のカメラ201〜第nのカメラ20n及び信号処理回路212を省いて汎用PCを用いて実現してもよいし、専用装置として実現するようにしても構わない。
図1は、本実施形態に係る位置検出装置100の機能構成例を示すブロック図である。
図1において、位置検出装置100は、画像取得部101、物体検出部102、物体追尾部103、物体属性取得部104、カメラ情報記憶部105、及び位置推定方法マップ記憶部106を有する。さらに、位置検出装置100は、物体記憶部107、物***置推定部108、表示制御部112、カメラ情報取得部113、及び位置推定方法マップ取得部114を有する。
カメラ情報取得部113は、カメラキャリブレーションを行うことにより、第1のカメラ201〜第nのカメラ20nのそれぞれの内部パラメータ、位置、及び姿勢に関する設定情報(カメラ情報)を取得し、カメラ情報記憶部105に記憶する。
画像取得部101は、第1のカメラ201〜第nのカメラ20nのそれぞれから画像データ(以下、カメラ画像)を取得する。
物体検出部102は、画像取得部101で取得されたカメラ画像の中から物体を検出する。本実施形態では、検出する物体は人物とする。
物体追尾部103は、物体検出部102により検出されたカメラ画像中の物体を追尾する。また、物体追尾部103は、追尾する物体に対して、同一の物体であることを識別するための追尾ラベルを付与する。本実施形態では、物体検出部102により検出された人物の頭部のカメラ画像上の位置に応じて、人物の位置を推定する方法を切り替える。
位置推定方法マップ記憶部106には、人物の位置を推定する方法を切り替える条件が記憶されており、詳細は後述する。
物体属性取得部104は、カメラ情報記憶部105に記憶されているカメラ情報と物体検出部102による検出結果とに基づいて物体の高さに関する情報を取得する。ここで、物体の高さとは、床面を基準とした物体の代表点の高さ方向の位置座標である。なお、代表点は必ずしも物体の最も高い位置である必要はなく、本実施形態では、代表点を人物の頭部の中心とする。また、本実施形態では、物体属性取得部104は物体の高さに関する情報を取得するが、物体の大きさに関連する情報を取得してもよい。
また、物体属性取得部104は第1の位置推定部110を有している。第1の位置推定部110は、カメラ情報記憶部105に記憶されたカメラ情報と第1のカメラ201〜第nのカメラ20nにおける物体検出部102の検出結果とから物体の3次元的な位置(以下、3次元位置)を推定する。
物体記憶部107は、物体属性取得部104により取得された物体の高さに関する情報を含む物体情報を記憶する。
物***置推定部108は、カメラ情報記憶部105に記憶されたカメラ情報と、物体検出部102による検出結果と、物体追尾部103による追尾結果と、物体記憶部107に記憶された物体情報とから、物体の3次元位置を推定する。また、物***置推定部108は、同一物体認識部109と第2の位置推定部111とを有している。
同一物体認識部109は、物体記憶部107に記憶された物体情報と物体検出部102により検出された物体とが同一であるか否かを判定する。第2の位置推定部111は、カメラ情報記憶部105に記憶されたカメラ情報と物体検出部102による検出結果と物体記憶部107に記憶された物体情報とから、物体の3次元位置を計算する。
表示制御部112は、物体の検出結果及び3次元位置をカメラ画像とともにディスプレイ216に表示する制御を行う。
図4は、本実施形態に係る動作を説明するためのフローチャートである。なお、本実施形態では、視野が重複して4台のカメラが設置されているものとする。本実施形態では、図3に示すように、第1のカメラ201〜第4のカメラ204が配置され、これらのカメラの視野301の一部が重なるように配置されている。なお、カメラの台数はこれに限らず、2台以上の任意の数でもよい。
まず、ステップS401において、カメラ情報取得部113は、カメラキャリブレーションを行うことにより、第1のカメラ201〜第4のカメラ204の内部パラメータ、位置、及び姿勢の情報を取得する。ここで、内部パラメータとは、カメラの焦点距離であり、カメラの位置及び姿勢とともに後述する物***置の推定に利用される。
図5は、キャリブレーションの概要を説明するための図である。まず、図5(a)に示すように、キャリブレーションボード501を環境に設置し、非特許文献1に記載の手法により各カメラの内部パラメータを算出する。さらに、図5(b)に示すように、環境に設置された多数のキャリブレーションボード501を複数のカメラで同時に観測することによって、カメラの位置及び姿勢を推定する。カメラ情報取得部113は、このような手順で得られたカメラ情報をカメラ情報記憶部105に記憶する。
本実施形態では、環境に設置された多数のキャリブレーションボードを用いてカメラの位置及び姿勢を推定した。一方、非特許文献2に記載の手法を用いてカメラの位置及び姿勢の情報を取得してもよい。具体的には、各カメラのカメラ画像中のコーナーやSIFT特徴等の特徴点を抽出し、これらの特徴点群を画像間で対応付けた後、カメラの位置、姿勢、及び点群の位置を求めることによってカメラの位置及び姿勢の情報を取得してもよい。また、カメラの内部パラメータと、カメラの位置及び姿勢とを同時に算出してもよい。
次に、ステップS402において、画像取得部101は、第1のカメラ201〜第4のカメラ204のそれぞれからフレーム単位のカメラ画像を取得する。本実施形態では、カメラ数が4つであるため、4枚のカメラ画像が取得される。
次に、ステップS403において、物体検出部102は、ステップS402で取得されたカメラ画像から人物を検出する。また、物体追尾部103は、過去に取得されたカメラ画像における人物の検出結果に基づいて、その人物の追尾を行う。この処理では、まず、物体検出部102は、カメラ画像から人物の頭部領域を抽出する。そして、この処理により、人物領域を示す矩形の代表点座標(x,y)と、矩形の高さh及び幅wとを得る。さらに、物体追尾部103は、現在の人物領域と過去の同一人物の人物領域とを対応付けることよって、複数時刻にわたって同一物体を追尾する。この処理の結果、人物ごとに追尾ラベルiを得る。ここで、追尾ラベルiとは、それぞれの追尾される人物を識別するための符号である。物体を検出し、追尾する手法として例えば非特許文献3に記載の手法が挙げられる。
次に、ステップS404において、位置推定方法マップ取得部114は、位置推定方法マップを取得し、位置推定方法マップ記憶部106に記憶する。位置推定方法マップとは、各カメラから得られたカメラ画像中の人物頭部の位置に応じて人物の3次元位置を推定する方法を切り替えるために用いる多値画像である。位置推定方法マップ取得部114は、カメラの視野の重なりのある画像領域(以下、視野重複画像領域)の情報を取得することにより位置推定方法マップを取得する。
図10は、視野重複画像領域を取得する方法を説明するための図である。まず、図10(a)に示すように、複数のカメラの視野の視体積1001が交差する立体と、人物の平均的な高さにある平面1002とが交差する平面領域を視野重複監視領域1003とする。本実施形態では、人物の平均的な高さは事前に定めた値を用いるものとするが、システムの稼働中に統計的に人物の平均的な高さを求めてもよい。
次に、図10(b)に示すように、各カメラで撮影されたカメラ画像において、視野重複監視領域1003に該当する画像領域を求め、その領域を視野重複画像領域1004とする。そして、図10(c)に示すように、視野重複画像領域1004に該当する部分領域に位置推定モードAを割り当て、視野重複画像領域1004に該当しない部分領域に位置推定モードBを割り当てる。そして、このような割り当てをすべてのカメラ画像に対して行う。
本実施形態では、位置推定方法マップを多値画像としたが、多角形や曲線等の閉領域の組み合わせにより位置推定方法マップを表現してもよいし、他の表現方法を用いてもよい。また、画像の部分領域ごとではなく、カメラごとに位置推定方法が異なるようにしてもよく、位置推定方法は3つ以上であってもよい。位置推定方法マップ及び視野重複画像領域を求める方法は別の方法でもよい。例えば、位置推定方法マップあるいは視野重複画像領域をユーザが指定できるようにしてもよい。
以上のようにステップS404では、位置推定方法マップを取得し、後述するように位置推定モードに応じて3次元位置を推定する方法を切り替えるようにする。位置推定方法マップを利用して3次元位置の推定方法を切り替えることにより、後述のステップS406及びS409のそれぞれの位置推定方法において、処理対象の人物を容易に絞り込むことができ、計算コストを軽減することができる。
次に、ステップS405において、物体属性取得部104は、位置推定方法マップの位置推定モードAの領域、すなわち視野重複画像領域に人物が存在するか否かを判定する。この判定は、人物の代表点座標(x,y)が視野重複画像領域に属するか否かを判定することにより行われる。この判定の結果、視野重複画像領域に人物が存在する場合はステップS406に進み、視野重複画像領域に人物が存在しない場合はステップS408に進む。
ステップS406においては、第1の位置推定部110は、複数のカメラを用いた人物の位置推定を行う。この処理では、位置推定モードAの領域に存在する人物を対象に処理を行う。
図6は、ステップS406において第1の位置推定部110が行う詳細な処理手順の一例を示すフローチャートである。
まず、ステップS601において、ステップS403で検出された人物を2つのカメラ画像間で対応付ける。具体的には、あるカメラ画像で検出された人物が、他のカメラ画像のどの人物に対応するかを探索する。
カメラ画像間における人物の対応付けは、人物領域の代表点をエピポーラ幾何によって対応付けることにより行われる。例えば、図8に示す第1のカメラ画像の人物Aの代表点は、第2のカメラ画像ではエピポーラ線801と呼ばれる直線で表される。第1のカメラ画像と第2のカメラ画像との間の位置関係の情報を含む基礎行列Fは、カメラ情報記憶部105に記憶されているカメラ情報の中のカメラの位置、姿勢、及び内部パラメータから計算できる。さらに、第1のカメラ画像の人物Aの2次元座標を表すベクトルをxとすると、第2のカメラ画像上のエピポーラ線lは以下の式(1)で表される。
l=Fx ・・・式(1)
第2のカメラ画像の人物の代表点とエピポーラ線801との間の距離が一定値以下の場合は、この第2のカメラ画像の人物と第1のカメラ画像の人物とで対応することになる。例えば、図8において、第1のカメラ画像の人物Aは、第2のカメラ画像上では人物Bに対応する。次に、2つのカメラ画像間で対応付く人物の組を生成する。例えば、図8において、人物Aが人物Bに対応し、人物Cが人物Dに対応する場合には、組{A,B}と組{C,D}との情報を生成する。このように2つのカメラのすべての組合せでステップS601の処理を行う。
次に、ステップS602において、ステップS601で対応付けた人物の組からその人物の3次元位置を推定する。具体的には、まず、図9に示すように、各カメラ画像に対し、カメラ中心901と人物領域の代表点902とを通る3次元空間中の直線を求める。この直線は、カメラの位置、姿勢、内部パラメータ及び代表点902の画像上の座標より求めることができる。次に、各カメラの直線の交点903を求め、この交点903の座標を人物の3次元位置とする。なお、直線の推定誤差により、実際にはこれらの直線が1点で交わらない場合がある。この場合には、各直線からの距離の和が最小になる点を交点の代わりに採用する。
次に、ステップS603において、ステップS602で推定された3次元位置から多カメラ間の物体対応を求める。ステップS602の段階では、2つのカメラ間でしか対応付けを行っていないため、同一の物体であるにもかかわらず複数の点として3次元位置が推定されている。そのため、ステップS603では、同一物体における複数の点(3次元位置)を1つにまとめる。なお、ステップS603の処理は、カメラが3台以上設置されている場合に行われる処理であり、カメラが2台しか設置されていない場合はこの処理は不要である。まず、ステップS602で推定した3次元位置同士の距離が互いに閾値以下であるグループを探索する。そして、これらのグループに属する2つのカメラ間で対応する物体を、多カメラ間で対応付く物体とする。さらに、そのグループに属する3次元位置の平均を求め、この平均をこのグループの代表の3次元位置とする。
図4の説明に戻り、次に、ステップS407において、物体属性取得部104は、人物の高さ座標を、対応する各カメラの追尾ラベルとともに物体記憶部107に物体情報として記憶する。ここで、人物の高さ座標は、ステップS406で得られた人物の3次元位置から得られる。
次に、ステップS408において、物***置推定部108は、位置推定方法マップの位置推定モードBの領域に人物が存在するか否かを判定する。この判定の結果、位置推定モードBの領域に人物が存在する場合はステップS409に進み、位置推定モードBの領域に人物が存在しない場合はステップS410に進む。
ステップS409においては、物***置推定部108は、ステップS407で記憶された人物の高さ座標と位置推定モードBの領域に存在する人物の情報とを用いて、位置推定モードBの領域に存在する人物の3次元位置を推定する。
図7は、ステップS409において物***置推定部108が行う詳細な処理手順の一例を示すフローチャートである。
まず、ステップS701において、同一物体認識部109は、位置推定モードBの領域に存在するそれぞれの人物について、これらの人物の高さ座標を取得する。具体的には、まず、物体記憶部107に物体情報とともに記憶されている追尾ラベルと位置推定モードBの領域に存在する人物の追尾ラベルとを比較する。そして、物体記憶部107に物体情報とともに記憶されている追尾ラベルの中に、位置推定モードBの領域に存在する人物の追尾ラベルと同じ追尾ラベルが含まれている場合は、同一人物とみなす。そして、該当する追尾ラベルに係る物体情報からその人物の高さ座標を取得する。なお、追尾ラベルが同一で人物の高さ座標が複数存在する場合(位置推定モードAの領域で複数回3次元位置が推定された場合)は、最初に算出された人物の高さ座標を取得する。一方、位置推定モードBの領域に存在する人物の追尾ラベルと同一の追尾ラベルが物体記憶部107に記憶されていない場合は、その人物については高さ座標を取得しない。
このように図7のステップS701では、追尾ラベルを用いて人物の軌跡をたどることによって人物が同一であるか否かを判定する。このような方法で人物が同一であるか否かを判定することにより、監視領域に存在する人物の見た目が類似している場合など、見た目で判別が難しい人物でも同一か否かを判定することができる。そのため、人物が同一であるか否かの判定精度を向上させることができる。
次に、ステップS702において、第2の位置推定部111は、ステップS701で取得した高さ座標を用いて、位置推定モードBの領域に存在する人物の3次元位置を推定する。この処理では、ステップS701で高さ座標が取得できた人物のみを処理対象とする。
図11は、ステップS702で人物の3次元位置を推定する方法を説明するための図である。まず、カメラ中心1101とカメラ画像の平面1102上の人物頭部の位置1103とを通る3次元空間中の直線を求める。次に、人物頭部の高さ座標と同じ高さに、床面に平行な平面1104を仮定する。そして、平面1104と3次元空間中の直線の交点1105を求め、この交点1105を人物の3次元位置として推定する。
具体的には、以下のようにして人物の3次元位置を求める。まず、カメラ中心と画像上の人物頭部の位置とを通る光線ベクトルrを以下の式(2)により計算する。
ここで、Rはカメラの回転行列を表し、カメラキャリブレーションによる既知の値である。また、u、vはカメラ座標系における人物頭部の位置を表し、fはカメラ座標系のスケールで換算した焦点距離を表す。次に、光線ベクトルr、ある実数α、カメラ位置を表わすベクトルcを用いて、人物頭部の3次元位置Xは以下の式(3)で表すことができる。
X=αr+c ・・・式(3)
ここで、このαの値を求めるために、人物頭部の高さ座標と同じ高さの床面に平行な平面を利用する。人物頭部の高さをhとすると、以下の式(4)が成り立つ。
h=αrz+cz ・・・式(4)
式(4)において、rzはrのz成分を表し、czはcのz成分を表す。そして、式(4)を式(3)に代入することによって、最終的に人物頭部の3次元位置Xは以下の式(5)により計算できる。
次に、ステップS703において、第2の位置推定部111は、ステップS701で高さ座標が取得できなかった人物について、平均的な人物の高さ座標を用いて3次元位置を推定する。この処理における3次元位置の推定方法はステップS702と同様であるが、物体記憶部107に記憶されている人物の高さ座標の代わりに、人物の高さ座標として所定の一定値あるいは統計値を用いる。本実施形態では、人物の高さ座標は事前に定めた値を用いるが、物体記憶部107に記憶された人物の高さ座標の平均など、システムの稼働中に求めた値を用いてもよい。
このように図7のステップS703では、平均的な人物の高さ座標を用いて3次元位置を推定する。平均的な人物の高さ座標を用いることにより、高さ座標の情報を有していない場合であっても3次元位置を推定することができる。
図4の説明に戻り、次に、ステップS410において、表示制御部112は、以上の処理で求めた人物追尾結果および3次元位置の推定結果をディスプレイ216に表示する。
図12は、処理結果の表示画面の一例を示す図である。図12に示すように、画面構成は、1つ以上のカメラ画像1201と3次元マップ1204とで構成される。
カメラ画像1201には、ステップS403で追尾された人物領域を示すシンボル(枠)1202がカメラ画像1201に重畳表示される。カメラが異なっていても同一の人物であるか否かをユーザが容易に識別できるように、それぞれのカメラの同一の人物の枠は同じ色に着色される。
一方、3次元マップ1204には、人物の3次元位置を示すシンボル1203とカメラの位置及び向きを示すシンボル1205とが床面とともに3次元画像として表示される。また、カメラ画像1201の人物と3次元マップ1204の人物とが同一であるか否かをユーザが容易に識別できるように、それぞれを同じ色で着色される。
次に、ステップS411において、画像取得部101は、処理を継続するか否かを判定する。この判定の結果、カメラからさらなるカメラ画像が取得可能で処理を継続する場合はステップS402に戻り、取得不可で処理を終了する場合は、そのまま処理を終了する。
以上のように本実施形態によれば、1台のカメラでのみ物体が観測されている状況でも3次元位置を推定することができ、3次元位置を推定する精度を向上させることができる。また、個別の物体の高さを用いることにより、実際に近い物体の高さを用いて位置を推定することができ、3次元位置を推定する精度を向上させることができる。
本実施形態では、同一物体か否かを判定するために、物体記憶部107に追尾ラベルを記憶した。一方、このようなカメラごとに割り当てられるカメラ固有の追尾ラベルの代わりに、シーン固有のラベルを物体記憶部107に記憶してもよい。ここで、シーン固有のラベルとは、カメラが異なっている場合でも同一の物体である場合には同じラベルを割り当てるようなラベルである。例えば、1つのカメラで撮影されたカメラ画像上で追尾が一旦途切れ、追尾ラベルが変化した場合であっても同一の物体と判定することができる。シーン固有のラベルを生成する方法としては、例えば、ステップS601及びステップS603においてカメラ間の物体の対応付けを行う際に、追尾ラベル同士を対応付ける。そして、この対応付けされた追尾ラベル群に、あるシーン固有のラベルを割り当てる。
また、本実施形態では、ステップS404において人物の位置によって位置推定方法を切り替えるために位置推定マップを取得し、位置推定モードAまたは位置推定モードBの位置推定方法を行うようにした。一方、両方の位置推定方法が行われる位置推定モードを設けてもよい。例えば、ステップS409では、位置推定モードA及びBの両方を対象として3次元位置を推定してもよい。このようにすることにより、より推定精度を向上させることができる。特に、検出漏れや他の物体によって物体が遮蔽された場合など、1台のカメラからしか物体が観測できない場合に、推定精度を向上させることができる。
また、本実施形態では、あるカメラの物体検出結果は物体属性取得部104と物***置推定部108との両方に入力されるが、物体属性取得部104あるいは物***置推定部108のいずれかにだけ入力されるようにしてもよい。例えば、あるカメラに関する物体検出結果は物体属性取得部104のみに入力され、別のあるカメラに関する物体検出結果は物***置推定部108に入力されるようにしてもよい。また、一部のカメラからはいずれかに入力され、別の一部のカメラからは両方に入力されるという構成にしてもよい。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。
図13は、本実施形態に係る位置検出装置1300の機能構成例を示すブロック図である。図1に示した構成と異なる点は、物体追尾部103が識別特徴抽出部1303に置き換わっている点である。
図13において、識別特徴抽出部1303は、物体検出部102で検出された物体から識別特徴を抽出する。ここで、識別特徴とは、物体領域同士が同一物体のものか否かを判定するために用いる特徴量であり、本実施形態では、人物の頭部領域の下端付近の服領域のRGB値をRGB色特徴として取得する。一方、識別特徴として、身長や性別、年齢、服装、容姿などの属性情報や、Histogram of Oriented Gradients(HOG)特徴などの画像特徴、画像そのものを抽出してもよい。そして、物***置推定部108は、カメラ情報記憶部1305に記憶されたカメラ情報と物体検出部1302による検出結果と識別特徴抽出部1303による識別特徴の抽出結果と物体記憶部1307に記憶された物体情報とから、物体の3次元位置を推定する。
図14は、本実施形態におけるカメラの配置例を説明するための図である。図3に示した例では、全てのカメラにおいて、他のカメラと視野が重複する領域が存在していた。これに対して図14に示す例では、第1のカメラ201と第2のカメラ202との間では、視野1401が重複する領域が存在するが、第3のカメラ203及び第4のカメラ204はどのカメラとも視野が重複していない。
図15は、本実施形態に係る動作を説明するためのフローチャートである。なお、図4と重複する処理については同じ符号を付しており、その説明は省略する。
ステップS1503においては、物体検出部102は、ステップS402で取得されたカメラ画像から人物を検出する。そして、識別特徴抽出部1303は、検出された人物から識別特徴を抽出する。
ステップS1507においては、物体属性取得部104は、人物の高さ座標とその人物の識別特徴とを物体記憶部107に物体情報として記憶する。
ステップS1509の処理は、図4のステップS409と一部の処理内容が異なっている。以下、ステップS1509の処理の詳細について説明する。
図16は、ステップS1509において物***置推定部108が行う詳細な処理手順の一例を示すフローチャートである。
まず、ステップS1601において、同一物体認識部109は、位置推定モードBの領域に存在するそれぞれの人物について、これらの人物の高さ座標を取得する。具体的には、物体記憶部107に人物の高さ座標とともに記憶された人物の識別特徴と位置推定モードBの領域に存在する人物から抽出した識別特徴とを比較する。そして、識別特徴同士の類似度が閾値以上である場合には同一人物とみなし、その人物の高さ座標を取得する。本実施形態では、RGB色特徴の類似度としてコサイン距離を用いる。なお、類似度が閾値以上である識別特徴が複数存在する場合は、最も早い時間に抽出された識別特徴を有する人物の高さ座標を取得する。一方、識別特徴同士の類似度が閾値以上となるものが物体記憶部107に存在しない場合は、位置推定モードBの領域に存在する人物と同一人物の高さ座標が物体記憶部107に記憶されていないものとみなす。したがってこの場合は、人物の高さ座標を取得しない。次のステップS702及びS703は、図7と同様であるため、説明は省略する。
なお、本実施形態では、ステップS1601で人物の識別特徴を用いることによって人物が同一であるか否かを判定した。一方、第1の実施形態と組み合わせ、人物の識別特徴と追尾との両方を用いることによって、人物が同一であるか否かを判定してもよい。
以上のように本実施形態によれば、人物の識別特徴を用いて人物が同一であるか否かを判定するようにしたので、図14に示すようなカメラ配置のように、視野の重なりがないカメラが存在する場合でも同一人物か否かを識別することができる。そのため、カメラの配置の自由度が増すとともに、視野の重なり部分を減らせるため、カメラを配置する個数を減少させることができる。特に、監視領域が他の人物で混雑している場合など、人物の追尾が難しい場合に2次元位置の推定精度を向上させることができる。
なお、本実施形態では、あるカメラの物体検出結果は物体属性取得部104と物***置推定部108との両方に入力されるが、物体属性取得部104あるいは物***置推定部108のいずれかにだけ入力されるようにしてもよい。例えば、あるカメラに関する物体検出結果は物体属性取得部104のみに入力され、別のあるカメラに関する物体検出結果は物***置推定部108に入力されるものとしてもよい。また、一部のカメラからはいずれかに入力され、別の一部のカメラからは両方に入力されるという構成にしてもよい。
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。
図17は、本実施形態に係る動作を説明するためのフローチャートである。なお、図4と重複する処理については同じ符号を付しており、その説明は省略する。
ステップS1704の処理は、図4のステップS406と基本的には同様である。ただし、図4のステップS406では、位置推定モードAの領域に存在する人物を対象に処理を行ったが、ステップS1704では、全ての領域の人物を対象に処理を行う。したがって、ステップS1704の処理の場合は、どのカメラとの組合せでも対応付けができない人物も存在する場合があり、そのような人物に対しては3次元位置の推定は行われない。
ステップS1705においては、物体属性取得部104は、人物の高さ座標を追尾ラベルとともに物体記憶部107に物体情報として記憶する。
次のステップS1706においては、基本的には図4のステップS409と内容が異なる。まず、図4のステップS409では、位置推定モードBの領域に存在するそれぞれの人物を処理対象としていたのに対し、本実施形態では、ステップS601でどのカメラとの組合せでも対応付けができなかった人物を処理対象とする。どのカメラとの組合せでも対応付けができない人物とは、例えば、複数のカメラの視野が重ならない監視領域に存在した場合や、検出漏れが発生した場合、他の物体によって遮蔽された場合など、1台のカメラからしか検出できない人物である。ステップS1706では、このような人物に対し、図7と同様の処理を行うことによって、3次元位置を推定する。
以上のように本実施形態によれば、1台のカメラでのみ人物が検出されている状況でも3次元位置を推定することができ、3次元位置の推定精度を向上させることができる。図17のステップS1706の処理で、複数のカメラで検出されなかった人物を処理対象とすることにより、複数のカメラで3次元位置を推定できなかった人物も3次元位置を推定することができ、3次元位置の推定の漏れを減少させることができる。
(その他の実施形態)
前述した第1〜第3の実施形態では、物体属性取得部104は、画像解析によって3次元位置を求めて物体の高さを求めたが、距離センサ等の他の方法により物体の高さを求めてもよい。その場合、物体属性取得部104は、距離センサから距離画像を入力することによって物体の高さ座標を得る。このような構成にすることにより、カメラとその他のセンサとを混在して利用できるようにし、カメラ以外で得た情報を利用することによって、カメラによる3次元位置の推定精度を向上させることができる。
また、第2の実施形態では、物体属性取得部104は、画像解析によって3次元位置を求めて物体の高さを求めたが、距離センサ等で計測せずに事前に個別の物体の高さを計測しておき、識別特徴とともに外部のデータベースに蓄積しておいてもよい。そして、データベースから物体の高さ及び識別特徴を読み出すようにしてもよい。
例えば、データベースに顔認証または個人認証のための識別特徴と人物の高さ座標との情報を蓄積しておくようにしてもよい。この場合、同一物体認識部109は、画像取得部101が取得したカメラ画像で抽出された識別特徴と、データベースに蓄積されている識別特徴と比較する。このようにすることで、3次元位置を推定する際に物体の高さを計測する装置を不要にすることができ、カメラの配置やシステムなどの自由度を上げることができる。また、3次元位置を推定するためにカメラの視野を重複して配置させる必要性が減少するため、監視領域に設置するカメラ台数を減少させることもできる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像取得部
102 物体検出部
105 カメラ情報記憶部
107 物体記憶部
110 第1の位置推定部
111 第2の位置推定部

Claims (12)

  1. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段と、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得手段と、
    前記画像取得手段によって取得されたカメラ画像から物体を検出する検出手段と、
    前記複数のカメラの中の少なくとも2つのカメラで視野が重複する位置に前記検出手段によって検出された物体が存在するか否かを判定する第1の判定手段と、
    前記第1の判定手段により前記検出された物体が前記視野が重複する領域に存在すると判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定手段と、
    前記第1の位置推定手段によって3次元的な位置が推定された物体の物体情報を記憶する第2の記憶手段と、
    前記第1の判定手段により前記検出された物体が前記視野が重複する領域に存在しないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定手段とを備えることを特徴とする位置検出装置。
  2. 前記第2の記憶手段は、前記物体情報として前記物体の高さの情報を記憶することを特徴とする請求項1に記載の位置検出装置。
  3. 前記第2の記憶手段に記憶された情報に係る物体と、前記検出手段によって検出された物体とが同一であるか否かを判定する第2の判定手段をさらに備え、
    前記第2の位置推定手段は、前記第2の判定手段より同一であると判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報とに基づいて前記物体の3次元的な位置を推定することを特徴とする請求項1又は2に記載の位置検出装置。
  4. 前記検出手段によって検出された物体を追尾して、同一の物体であることを示す追尾ラベルを前記物体に付与する追尾手段をさらに備え、
    前記第2の判定手段は、前記第2の記憶手段に記憶された情報に係る物体に付与された追尾ラベルに基づいて前記検出手段によって検出された物体と同一であるか否かを判定することを特徴とする請求項3に記載の位置検出装置。
  5. 前記検出手段によって検出された物体から特徴を抽出する特徴抽出手段をさらに備え、
    前記第2の判定手段は、前記第2の記憶手段に記憶された情報に係る物体から抽出された特徴に基づいて、前記検出手段によって検出された物体と同一であるか否かを判定することを特徴とする請求項3に記載の位置検出装置。
  6. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段と、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得手段と、
    前記画像取得手段によって取得されたカメラ画像から物体を検出する検出手段と、
    前記検出手段によって検出された物体が前記複数のカメラの中の少なくとも2つのカメラから検出されたか否かを判定する判定手段と、
    前記判定手段により前記少なくとも2つのカメラから前記物体が検出されたと判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定手段と、
    前記第1の位置推定手段によって3次元的な位置が推定された物体の物体情報を記憶する第2の記憶手段と、
    前記判定手段により前記少なくとも2つのカメラから前記物体が検出されていないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定手段とを備えることを特徴とする位置検出装置。
  7. 前記第1の位置推定手段は、距離センサから前記物体の高さ情報を取得することを特徴とする請求項1〜6の何れか1項に記載の位置検出装置。
  8. 前記第2の位置推定手段は、前記所定の情報として前記物体の平均的な高さ情報を用いることを特徴とする請求項1〜7の何れか1項に記載の位置検出装置。
  9. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段を備えた位置検出装置の位置検出方法であって、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得工程と、
    前記画像取得工程において取得されたカメラ画像から物体を検出する検出工程と、
    前記複数のカメラの中の少なくとも2つのカメラで視野が重複する位置に前記検出工程において検出された物体が存在するか否かを判定する判定工程と、
    前記判定工程において前記検出された物体が前記視野が重複する領域に存在すると判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定工程と、
    前記第1の位置推定工程において3次元的な位置が推定された物体の物体情報を第2の記憶手段に記憶する記憶工程と、
    前記判定工程において前記検出された物体が前記視野が重複する領域に存在しないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定工程とを備えることを特徴とする位置検出方法。
  10. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段を備えた位置検出装置の位置検出方法であって、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得工程と、
    前記画像取得工程において取得されたカメラ画像から物体を検出する検出工程と、
    前記検出工程において検出された物体が前記複数のカメラの中の少なくとも2つのカメラから検出されたか否かを判定する判定工程と、
    前記判定工程において前記少なくとも2つのカメラから前記物体が検出されたと判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定工程と、
    前記第1の位置推定工程において3次元的な位置が推定された物体の物体情報を第2の記憶手段に記憶する記憶工程と、
    前記判定工程において前記少なくとも2つのカメラから前記物体が検出されていないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定工程とを備えることを特徴とする位置検出方法。
  11. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段を備えた位置検出装置を制御するためのプログラムであって、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得工程と、
    前記画像取得工程において取得されたカメラ画像から物体を検出する検出工程と、
    前記複数のカメラの中の少なくとも2つのカメラで視野が重複する位置に前記検出工程において検出された物体が存在するか否かを判定する判定工程と、
    前記判定工程において前記検出された物体が前記視野が重複する領域に存在すると判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定工程と、
    前記第1の位置推定工程において3次元的な位置が推定された物体の物体情報を第2の記憶手段に記憶する記憶工程と、
    前記判定工程において前記検出された物体が前記視野が重複する領域に存在しないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定工程とをコンピュータに実行させることを特徴とするプログラム。
  12. 複数のカメラに係る位置及び姿勢の情報を含むカメラ情報を記憶する第1の記憶手段を備えた位置検出装置を制御するためのプログラムであって、
    前記複数のカメラからそれぞれカメラ画像を取得する画像取得工程と、
    前記画像取得工程において取得されたカメラ画像から物体を検出する検出工程と、
    前記検出工程において検出された物体が前記複数のカメラの中の少なくとも2つのカメラから検出されたか否かを判定する判定工程と、
    前記判定工程において前記少なくとも2つのカメラから前記物体が検出されたと判定された場合に、前記第1の記憶手段に記憶された前記少なくとも2つのカメラに係るカメラ情報に基づいて前記物体の3次元的な位置を推定する第1の位置推定工程と、
    前記第1の位置推定工程において3次元的な位置が推定された物体の物体情報を第2の記憶手段に記憶する記憶工程と、
    前記判定工程において前記少なくとも2つのカメラから前記物体が検出されていないと判定された場合に、前記第1の記憶手段に記憶された前記物体が検出されたカメラに係るカメラ情報と、前記第2の記憶手段に記憶された物体情報または前記物体に係る所定の情報とに基づいて前記物体の3次元的な位置を推定する第2の位置推定工程とをコンピュータに実行させることを特徴とするプログラム。
JP2015235044A 2015-12-01 2015-12-01 位置検出装置、位置検出方法及びプログラム Active JP6700752B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015235044A JP6700752B2 (ja) 2015-12-01 2015-12-01 位置検出装置、位置検出方法及びプログラム
US15/363,248 US10212324B2 (en) 2015-12-01 2016-11-29 Position detection device, position detection method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235044A JP6700752B2 (ja) 2015-12-01 2015-12-01 位置検出装置、位置検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017103602A true JP2017103602A (ja) 2017-06-08
JP6700752B2 JP6700752B2 (ja) 2020-05-27

Family

ID=58777260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235044A Active JP6700752B2 (ja) 2015-12-01 2015-12-01 位置検出装置、位置検出方法及びプログラム

Country Status (2)

Country Link
US (1) US10212324B2 (ja)
JP (1) JP6700752B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029695A (ja) * 2017-07-25 2019-02-21 富士通株式会社 判別用コンピュータプログラム、判別装置及び判別方法ならびに通信システム
JP2019087824A (ja) * 2017-11-02 2019-06-06 日本信号株式会社 監視システム
JP2019109174A (ja) * 2017-12-20 2019-07-04 カシオ計算機株式会社 位置算出システム、位置算出装置、位置算出方法及びプログラム
WO2019230813A1 (ja) * 2018-05-30 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置
JP2020056644A (ja) * 2018-10-01 2020-04-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020068495A (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2020158035A1 (ja) * 2019-02-01 2020-08-06 株式会社日立製作所 物***置推定装置およびその方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控***
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
JP6915512B2 (ja) * 2017-11-28 2021-08-04 トヨタ自動車株式会社 サーバ装置、故障車両推定方法および故障車両推定プログラム
US10776672B2 (en) 2018-04-25 2020-09-15 Avigilon Corporation Sensor fusion for monitoring an object-of-interest in a region
US11188763B2 (en) * 2019-10-25 2021-11-30 7-Eleven, Inc. Topview object tracking using a sensor array
NL2022442B1 (nl) * 2019-01-24 2020-01-07 Lely Patent Nv Positiebepalingsinrichting
CN112558008B (zh) * 2019-09-26 2024-03-12 北京外号信息技术有限公司 基于光通信装置的导航方法、***、设备及介质
JP2021093037A (ja) * 2019-12-11 2021-06-17 株式会社東芝 算出システム、算出方法、プログラム、及び記憶媒体
CN111256701A (zh) * 2020-04-26 2020-06-09 北京外号信息技术有限公司 一种设备定位方法和***
CN111885306B (zh) * 2020-07-28 2021-12-07 重庆虚拟实境科技有限公司 目标对象调整方法、计算机装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法
JP2006041939A (ja) * 2004-07-27 2006-02-09 Victor Co Of Japan Ltd 監視装置及び監視プログラム
JP2007233523A (ja) * 2006-02-28 2007-09-13 Hitachi Ltd 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2011193187A (ja) * 2010-03-15 2011-09-29 Omron Corp 監視カメラ端末

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2123038A2 (en) * 2006-12-04 2009-11-25 Lynx System Developers, Inc. Autonomous systems and methods for still and moving picture production
US8264542B2 (en) * 2007-12-31 2012-09-11 Industrial Technology Research Institute Methods and systems for image processing in a multiview video system
JP2010063001A (ja) 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
CN102414718B (zh) 2009-04-28 2014-12-10 日本电气株式会社 对象位置估计设备和对象位置估计方法
US9177195B2 (en) * 2011-09-23 2015-11-03 Shoppertrak Rct Corporation System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device
JP6331270B2 (ja) 2013-06-06 2018-05-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US10055643B2 (en) * 2014-09-19 2018-08-21 Bendix Commercial Vehicle Systems Llc Advanced blending of stitched images for 3D object reproduction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法
JP2006041939A (ja) * 2004-07-27 2006-02-09 Victor Co Of Japan Ltd 監視装置及び監視プログラム
JP2007233523A (ja) * 2006-02-28 2007-09-13 Hitachi Ltd 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2011193187A (ja) * 2010-03-15 2011-09-29 Omron Corp 監視カメラ端末

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029695A (ja) * 2017-07-25 2019-02-21 富士通株式会社 判別用コンピュータプログラム、判別装置及び判別方法ならびに通信システム
JP2019087824A (ja) * 2017-11-02 2019-06-06 日本信号株式会社 監視システム
JP7149063B2 (ja) 2017-11-02 2022-10-06 日本信号株式会社 監視システム
JP2019109174A (ja) * 2017-12-20 2019-07-04 カシオ計算機株式会社 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP7409425B2 (ja) 2017-12-20 2024-01-09 カシオ計算機株式会社 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP2022090130A (ja) * 2017-12-20 2022-06-16 カシオ計算機株式会社 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP7069691B2 (ja) 2017-12-20 2022-05-18 カシオ計算機株式会社 位置算出システム、位置算出装置、位置算出方法及びプログラム
JPWO2019230813A1 (ja) * 2018-05-30 2021-07-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元再構成方法および三次元再構成装置
JP7227969B2 (ja) 2018-05-30 2023-02-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置
WO2019230813A1 (ja) * 2018-05-30 2019-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置
JP2020056644A (ja) * 2018-10-01 2020-04-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7224832B2 (ja) 2018-10-01 2023-02-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020068495A (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7237520B2 (ja) 2018-10-26 2023-03-13 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2020126332A (ja) * 2019-02-01 2020-08-20 株式会社日立製作所 物***置推定装置およびその方法
WO2020158035A1 (ja) * 2019-02-01 2020-08-06 株式会社日立製作所 物***置推定装置およびその方法
JP7096176B2 (ja) 2019-02-01 2022-07-05 株式会社日立製作所 物***置推定装置およびその方法

Also Published As

Publication number Publication date
US20170154424A1 (en) 2017-06-01
JP6700752B2 (ja) 2020-05-27
US10212324B2 (en) 2019-02-19

Similar Documents

Publication Publication Date Title
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
CN107431786B (zh) 图像处理设备、图像处理***和图像处理方法
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP4002919B2 (ja) 移動体高さ判別装置
JP5812599B2 (ja) 情報処理方法及びその装置
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP5538868B2 (ja) 画像処理装置、その画像処理方法及びプログラム
US20200012893A1 (en) Learning data generation device, learning data generation method, and recording medium
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6736414B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012013514A (ja) 情報処理装置、3次元位置算出方法及びプログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
CN105934757A (zh) 一种用于检测第一图像的关键点和第二图像的关键点之间的不正确关联关系的方法和装置
JP2018151830A (ja) 画像処理装置、画像処理方法及びプログラム
JP6817742B2 (ja) 情報処理装置およびその制御方法
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
Chakravorty et al. Automatic image registration in infrared-visible videos using polygon vertices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151