JP7253441B2 - 追跡装置及び情報処理プログラム - Google Patents

追跡装置及び情報処理プログラム Download PDF

Info

Publication number
JP7253441B2
JP7253441B2 JP2019089209A JP2019089209A JP7253441B2 JP 7253441 B2 JP7253441 B2 JP 7253441B2 JP 2019089209 A JP2019089209 A JP 2019089209A JP 2019089209 A JP2019089209 A JP 2019089209A JP 7253441 B2 JP7253441 B2 JP 7253441B2
Authority
JP
Japan
Prior art keywords
data
tracking
determined
processor
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019089209A
Other languages
English (en)
Other versions
JP2020184733A (ja
Inventor
隆 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2019089209A priority Critical patent/JP7253441B2/ja
Priority to US16/813,667 priority patent/US11228654B2/en
Priority to CN202010175798.9A priority patent/CN111915656A/zh
Priority to EP20169189.6A priority patent/EP3736734A1/en
Publication of JP2020184733A publication Critical patent/JP2020184733A/ja
Application granted granted Critical
Publication of JP7253441B2 publication Critical patent/JP7253441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、追跡装置及び情報処理プログラムに関する。
カメラで撮影された画像において人物が写り込んでいる領域の変化によって人物を追跡する技術は既に知られている。
しかしながら、カメラで撮影された画像は、カメラから人物までの距離の情報をほとんど含んでおらず、その情報を考慮しない追跡となっていた。このため、人物の移動軌跡を詳細に検出するには至っていなかった。
このような事情から、人物等の対象物の移動をより高精度に追跡できることが望まれていた。
特開2005-347905号公報
本発明が解決しようとする課題は、対象物の移動をより高精度に追跡することを可能とする追跡装置及び情報処理プログラムを提供することである。
実施形態の追跡装置は、取得手段、向き判定手段、第1及び第2の位置判定手段を備える。取得手段は、施設内での設置位置及び撮影中心方向がそれぞれ既知である複数のカメラから、当該カメラによる撮影画像内で対象物が映り込んでいる領域を特定する領域データと、予め定められた基準位置から対象物までの距離を特定する距離データとをそれぞれ取得する。向き判定手段は、取得手段により取得された領域データに基づいて、カメラからの対象物の方向と撮影中心方向とのずれ量を判定する処理を、複数のカメラのそれぞれに関して行う。第1の位置判定手段は、カメラの設置位置及び撮影中心方向と、向き判定手段により判定されたずれ量と、取得手段により取得された距離データとに基づいて、対象物の施設内での位置を判定する処理を、複数のカメラのそれぞれに関して行う。第2の位置判定手段は、第1の位置判定手段により同時刻に関して予め定められた誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、第1の位置判定手段により同時刻に関して予め定められた誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定する。
第1の実施形態に係る追跡装置の要部回路構成を示すブロック図。 図1中に示されるプロセッサによる追跡処理のフローチャート。 追跡データの構成を模式的に示す図。 図1に示されるインテリジェントカメラにおける認識エリアの判定の様子を示す図。 図4のように判定された認識領域に対して判定した検出位置を示す図。 図1中のプロセッサによる補正処理のフローチャート。 1人の人物に関して2つのインテリジェントカメラで判定された検出位置が一致しない様子の一例を示す図。 互いにすれ違う2人の人物に関して2つのインテリジェントカメラで判定された検出位置の違いの一例を表す図。 インテリジェントカメラによる撮影範囲の形勢状況の一例を模式的に示す平面図。 追跡領域の形成状況を表す図。 追跡データの補正の様子を示す図。 追跡データの補正の様子を示す図。
以下、実施の形態の一例について図面を用いて説明する。
図1は実施形態に係る追跡装置1の要部回路構成を示すブロック図である。
追跡装置1は、店舗100の売場101を撮影するように設けられた複数のインテリジェントカメラ102による人物103の検出結果に基づいて、当該人物103の売場101での行動を追跡する。
インテリジェントカメラ102は、動画を撮影する。インテリジェントカメラ102は、撮影した動画において人物103が写り込んでいる領域(以下、認識エリアと称する)を判定する。インテリジェントカメラ102は、撮影した動画に映り込んでいる人物103までのインテリジェントカメラ102からの距離を測定する。距離の測定方式は、ステレオカメラ方式又はToF(time of flight)方式など、任意の方式を適用できる。インテリジェントカメラ102は、認識エリアを特定する領域データと、測定した距離を表す距離データとを含んだ検出データを、新たな認識エリアを判定する毎に出力する。
追跡装置1は、プロセッサ11、メインメモリ12、補助記憶ユニット13、通信インタフェース14及び伝送路15を備える。
プロセッサ11は、上記コンピュータの中枢部分に相当する。プロセッサ11は、オペレーティングシステム、ミドルウェア及びアプリケーションプログラム等の情報処理プログラムに従って、追跡装置1としての各種の機能を実現するための情報処理を実行する。
メインメモリ12は、上記コンピュータの主記憶部分に相当する。メインメモリ12は、不揮発性のメモリ領域と揮発性のメモリ領域とを含む。メインメモリ12は、不揮発性のメモリ領域では上記の情報処理プログラムを記憶する。またメインメモリ12は、プロセッサ11が各部を制御するための処理を実行する上で必要なデータを不揮発性又は揮発性のメモリ領域で記憶する場合もある。メインメモリ12は、揮発性のメモリ領域を、プロセッサ11によってデータが適宜書き換えられるワークエリアとして使用する。
補助記憶ユニット13は、上記コンピュータの補助記憶部分に相当する。補助記憶ユニット13は、例えばEEPROM(electric erasable programmable read-only memory)、HDD(hard disc drive)、SSD(solid state drive)、あるいはその他の周知の各種の記憶デバイスを利用できる。補助記憶ユニット13は、プロセッサ11が各種の処理を行う上で使用するデータと、プロセッサ11での処理によって生成されたデータとを保存する。補助記憶ユニット13は、上記の情報処理プログラムを記憶する場合もある。
通信インタフェース14は、通信ケーブルを介したインテリジェントカメラ102とのデータ通信を行う。通信インタフェース14としては、例えばUSB(universal serial bus)規格、あるいはLAN(local area network)規格に準拠した周知の通信デバイスを用いることができる。
伝送路15は、アドレスバス、データバス及び制御信号線等を含み、接続されている各部の間で授受されるデータや制御信号を伝送する。
追跡装置1は例えば、ハードウェアとしてサーバ用の汎用のコンピュータ装置を用い、後述の情報処理について記述した情報処理プログラムをメインメモリ12又は補助記憶ユニット13に記憶することによって実現できる。なお、当該の情報処理プログラムは、追跡装置1の譲渡の際にメインメモリ12又は補助記憶ユニット13に記憶されていてもよいし、上記の汎用のコンピュータ装置とは別に譲渡されてもよい。後者の場合、情報処理プログラムは、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなどのようなリムーバブルな記録媒体に記録して、あるいはネットワークを介して譲渡される。
次に以上のように構成された追跡装置1の動作について説明する。
プロセッサ11は、人物103の追跡を行うべき状態にあるときには、メインメモリ12又は補助記憶ユニット13に記憶された情報処理プログラムに従って、以下に説明する情報処理(以下、追跡処理と称する)を行う。なおプロセッサ11は、追跡処理を、複数のインテリジェントカメラ102のそれぞれに関して個別に実行する。
図2はプロセッサ11による追跡処理のフローチャートである。なお、以下に説明する処理の内容は一例であって、一部の処理の順序の変更、一部の処理の省略、あるいは別の処理の追加などは適宜に可能である。
ACT1としてプロセッサ11は、メインメモリ12又は補助記憶ユニット13に記憶される追跡データを初期化する。追跡データは、一人の人物103に関連付けられ、その人物103についての1つのインテリジェントカメラ102での検出結果に基づいて判定される位置の経時変化を表す。
図3は追跡データの構成を模式的に示す図である。
図3に示すように追跡データは、フィールドF1,F2,F3,F4を含む。また追跡データは、フィールドF5以降のフィールドを含む場合もある。
フィールドF1には、当該追跡データが関連付けられた人物103を後述する追跡処理の対象者として識別するための対象者コードがセットされる。フィールドF2には、位置判定に用いられたインテリジェントカメラ102を識別するためのカメラコードがセットされる。フィールドF3には、位置を判定した時刻を表す時刻データがセットされる。フィールドF4には、フィールドF3にセットされた時刻データが表す判定時刻における対象者の位置を表す位置データがセットされる。かくして追跡データは、フィールドF3,F4の2つのフィールドが一組となって、1つの位置の判定結果を表す。フィールドF5以降には、2つ一組のフィールドが追加され得る。そして一組の2つのフィールドには、フィールドF 3,F4と同様に、時刻データ及び位置データがセットされる。
プロセッサ11は、ACT11においては例えば、予め定められたルールに従って、他の追跡データのフィールドF1にセットされている対象コードとは異なるように対象者コードを選定し、フィールドF1にセットする。またプロセッサ11は、インテリジェントカメラ102のうちの1つに予め割り当てられているカメラコードをフィールドF2にセットする。そしてプロセッサ11は、フィールドF3以降をクリアする。
ところでインテリジェントカメラ102は、人物を検出する動作状態にあるときには、動画像を常時撮影し、これにより得られた動画に基づいて認識エリアの判定を試みる。
図4はインテリジェントカメラ102における認識エリアの判定の様子を示す図である。
一例としてインテリジェントカメラ102は、動画のフレームFR1の中で人物103の頭部として認識した領域を内包する矩形のエリアを認識エリアAR1とする。そしてインテリジェントカメラ102は、フレームFR1の左上の角を原点PO1とする2次元座標系における認識エリアAR1の左上の角の位置PO2を表すX座標及びY座標と、認識エリアのX方向のドット数(以下、Xサイズと称する)AX1及びY方向のドット数(以下、Yサイズと称する)AY1とを含んだデータを領域データとする。なお、一例としてインテリジェントカメラ102は、X座標及びY座標を、原点PO1からの左方向及び下方向へのドット数LX1,LY1として表す。また一例としてインテリジェントカメラ102は、認識エリアを判定した時刻を表す時刻データを検出データに含める。
追跡の対象となる人物103がインテリジェントカメラ102の撮影範囲に居ない場合は、インテリジェントカメラ102は検出データを出力しない。インテリジェントカメラ102は、売場101を移動する人物103の頭部がインテリジェントカメラ102の撮影範囲内に入り、撮影した動画像に映り込むようになると、人物103の頭部の動画像内における位置に応じた検出データを出力する。インテリジェントカメラ102はこののち、人物103が撮影範囲内に居続ける限り、頭部の位置が変化する毎に、その変化後の位置に応じた検出データを出力する。つまりインテリジェントカメラ102による検出データの出力は不定期となる。インテリジェントカメラ102は検出データを出力するのに先立ち、追跡装置1に対して検出データの取り込みをリクエストする。
プロセッサ11は、検出データの出力に先立つインテリジェントカメラ102からのリクエストに応じて、検出データの取り込みを通信インタフェース14に指示する。この指示に応じて通信インタフェース14は、インテリジェントカメラ102から出力された検出データを取り込み、メインメモリ12又は補助記憶ユニット13に保存する。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは、通信インタフェース14との協働により取得手段としての機能を実現する。
図2中のACT2としてプロセッサ11は、検出データが取り込まれたか否かを確認する。そしてプロセッサ11は、上述のように通信インタフェース14によって検出データが取り込まれたならばYESと判定し、ACT3へと進む。
ACT3としてプロセッサ11は、検出データに含まれた領域データで特定される領域の中心を人物103が検出された検出位置として判定する。プロセッサ11は例えば、図4に示す認識エリアAR1に関しては、
CX1=(LX1+AX1/2)
CY1=(LY1+AY1/2)
として求まるCX1,CY1をX座標及びY座標とする位置を検出位置として判定する。
図5は図4のように判定された認識エリアAR1に対して判定した検出位置PO3を示す図である。なお、検出位置は、認識エリアに対して予め定められた関係を持った位置であればよい。例えば、位置PO2をそのまま検出位置としてもよい。
図2中のACT4としてプロセッサ11は、検出位置に関して、インテリジェントカメラ102の撮影中心方向を基準とした方位角及び上下角を判定する。
ここでインテリジェントカメラ102は、内蔵する光学系により、2次元に配列された多数の撮像素子のうちの中央に位置する撮像素子に撮影中心方向から到来する光を入射し、その周りの撮像素子に撮影中心方向とは別のそれぞれ異なる方向から到来する光を入射することで、ある程度の画角をもって撮影するものとなっている。このため、検出位置PO3のフレームFR1の中心位置PO4との距離が大きい程、撮影中心方向と検出位置PO3の方向とがなす角度が大きくなる。そして当該距離と当該角度の大きさとの関係は、インテリジェントカメラ102の光学的な特性によって定まっている。
そこでプロセッサ11は、検出位置PO3と中心位置PO4との水平方向の距離GX1を算出し、当該距離GX1に対応する角度を方位角θH1として判定する。またプロセッサ11は、検出位置PO3と中心位置PO4との垂直方向への距離GX1を算出し、当該距離GX1に対応する角度を上下角θV1として判定する。なおプロセッサ11は、距離に対応する角度の判定は、インテリジェントカメラ102の光学系の特性を考慮して予め定められた演算により行ってもよいし、距離に関連付けて角度を表したテーブルデータの参照により行ってもよい。なお、光学系においては、歪曲収差などの歪み特性を有することが多いので、このような歪み特性の影響を低減するように距離と角度との関連付けが行われていることが望ましい。ここで、中心位置PO4が、インテリジェントカメラ102の撮影中心方向に一致する。つまり方位角θH1及び上下角θV1は、インテリジェントカメラからの検出位置への方向と撮影中心方向とのずれ量を表す指標の1つである。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは向き判定手段として機能する。
さて、上記の方位角θH1及び上下角θV1は、いずれもインテリジェントカメラ102の撮影中心方向を基準としている。インテリジェントカメラ102の撮影中心方向は、グローバル座標に対して傾きを有している場合が多い。なお、グローバル座標は、売場101内の位置を特定するために予め定められた3次元座標系内の座標である。グローバル座標は、例えば図1中に示すように売場の端に定めた基準位置PO5を基準としたX座標、Y座標及びZ座標によって表される。なお、グローバル座標系は論理的な座標系であって、どのように定められてもよい。
ACT5としてプロセッサ11は、検出位置PO3についてのグローバル座標系に対応した極座標を判定する。プロセッサ11は例えば、インテリジェントカメラ102の撮影中心方向のグローバル座標のX方向に対する傾きを方位角θH1に加算することで、検出位置PO3についてのグローバル座標系における方位角θH2を算出する。またプロセッサ11は例えば、インテリジェントカメラ102の撮影中心方向のグローバル座標のZ方向に対する傾きを上下角θV1に加算することで、検出位置PO3についてのグローバル座標系における上下角θV2を算出する。そしてプロセッサ11は、方位角θH2及び上下角θV2と、検出データに含まれた距離データが表す距離DI1とによって、(DI1,θV2,θH2)として検出位置PO3の極座標を判定する。
ACT6としてプロセッサ11は、極座標(DI1,θV2,θH2)をグローバル座標に変換する。プロセッサ11は例えば、次の3つの式をそれぞれ計算し、グローバル座標(X1,Y1,Z1)を得る。なお、既知であるインテリジェントカメラ102の位置のグローバル座標を(X2,Y2,Z2)と表すこととする。
X1=DI1・sinθV2・cosθH2+X2
Y1=DI1・sinθV2・sinθH2+Y2
Z1=DI1・cosθV2+Z2
かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは第1の位置判定手段として機能する。
ACT7としてプロセッサ11は、人物103の移動速度を判定する。プロセッサ11は例えば、図2に示す情報処理を開始してから最初にACT7を実行する場合には、移動速度をゼロとする。プロセッサ11は例えば、後述するようにACT3以降を繰り返した場合には、前回のACT6の実行により判定したグローバル座標と今回のACT6の実行により判定したグローバル座標との間の距離を、前回の検出データに含まれた時刻データが表す時刻と今回の検出データに含まれた時刻データが表す時刻との時間差で除算して求まる値を移動速度として判定する。つまりこの場合にプロセッサ11は、前回のACT6の実行により判定したグローバル座標及び今回のACT6の実行により判定したグローバル座標を(X1p,Y1p,Z1p)及び(X1c,Y1c,Z1c)と表し、時間差をΔTと表すならば、例えば次式を計算する。
√{(X1c-X1p)2+(Y1c-Y1p)2+(Z1c-Z1p)2}/ΔT
つまり、この例で求める移動速度は、連続する2回の位置判定で判定される2つの検出位置の間を人物103が移動した際の平均の移動速度である。
ACT7としてプロセッサ11は、検出データが異常であるか否かを確認する。検出データから求まる人物103の移動速度が極端に早いならば、検出データが異常であると考えられる。そこでプロセッサ11は例えば、ACT7にて判定した移動速度が、予め定められた閾値以上であるか否かを確認する。そして閾値以上であるならば異常であるとしてYESと判定し、ACT9へと進む。
ACT9としてプロセッサ11は、極座標を補正する。プロセッサ11は例えば、ACT5にて判定した極座標(DI1,θV2,θH2)の上下角θV2及び方位角θH2はそのままに、距離DI1を前回の検出データに含まれた距離データが表す値に置き換える。
つまり、今回の検出位置PO3に関して測定された距離を用いず、代わりに前回測定された距離を用いる。そして、今回の検出位置PO3に関して判定した上下角θV2及び方位角θH2はそのまま用いる。これは、上下角θV2及び方位角θH2が、人物が実際に動画に映り込んだ位置に基づくために精度が高いのに対して、ステレオカメラ方式及びToF方式による距離測定は、条件により誤差が大きくなることがあるためである。このため、移動速度が異常となる原因は、距離の誤測定である確率が高いのであり、このような誤測定の結果である可能性の高い距離を用いないことによって、追跡の精度を向上できる可能性がある。
このように、ACT9にて異常であると判定することは、距離データに異常があることを検出していることになる。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは検出手段として機能する。
ACT10としてプロセッサ11は、ACT9で補正した極座標をACT6と同様にグローバル座標に変換する。そしてこののちにプロセッサ11は、ACT11へと進む。なおプロセッサ11は、移動速度が閾値未満であるならば、異常ではないとしてACT8にてNOと判定し、ACT9及びACT10をパスしてACT11へと進む。
ACT11としてプロセッサ11は、追跡データを更新する。プロセッサ11は例えば、今回の検出データに含まれた時刻データをセットしたフィールドと、ACT10を実行した場合にはACT10にて得たグローバル座標を、またACT10をパスした場合にはACT6で得たグローバル座標を、位置データとしてセットしたフィールドとを含むように追跡データを更新する。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは追跡データを生成する生成手段として機能する。
そしてプロセッサ11はこののち、ACT2へと戻る。かくしてプロセッサ11は、人物103の頭部がインテリジェントカメラ102の撮影範囲内に存在し続けており、インテリジェントカメラ102から検出データが繰り返し出力される状況にあっては、ACT3乃至ACT11を繰り返し実行する。つまりプロセッサ11は、当該繰り返し出力される検出データのそれぞれに基づいて得たグローバル座標を位置データとしてセットしたフィールドと、時刻データをセットしたフィールドとを組として追跡データに追加して行く。これにより、追跡データは、人物103の頭部の位置を追跡したデータとなる。
さてプロセッサ11は、検出データが取り込まれていない場合にはACT2にてNOと判定し、ACT12へと進む。
ACT12としてプロセッサ11は、ACT3を前回実行した際に判定した検出位置PO3が辺縁領域内であるか否かを確認する。辺縁領域は、図4に示すようにフレームFR1の変縁部に予め定められた領域である。そしてプロセッサ11は、前回の検出位置PO3が辺縁領域外であったならばNOと判定し、そのままACT2に戻る。つまりプロセッサ11はACT2及びACT12としては、前回の検出位置PO3が辺縁領域外であるならば、単に検出データが取り込まれるのを待ち受ける。
プロセッサ11は、しかしながら前回の検出位置PO3が辺縁領域内であったならばACT12にてYESと判定し、ACT13へと進む。
ACT13としてプロセッサ11は、検出データが取り込まれない状態で制限時間が経過したか否かを確認する。そしてプロセッサ11は、制限時間が経過していないならばNOと判定し、そのままACT2に戻る。かくしてプロセッサ11は、前回の検出位置PO3が辺縁領域内であったならば、検出データが取り込まれるか、あるいは制限時間が経過するのを待ち受ける。そしてプロセッサ11は、検出データが取り込まれない状態のまま予め定められた制限時間が経過したならば、ACT13にてNOと判定し、ACT14へと進む。
ACT14としてプロセッサ11は、メインメモリ12又は補助記憶ユニット13に記憶される履歴データベースを更新する。履歴データベースは、追跡データの集合である。プロセッサ11は、例えば、メインメモリ12又は補助記憶ユニット13に記憶されている追跡データを含むように履歴データベースを更新する。なおプロセッサ11は、履歴データベースに追加する追跡データに、追跡データの個々を識別するための識別コードを含めるなどの処理を施してもよい。そしてプロセッサ11は、図2に示す追跡処理を終了する。
前述したように、プロセッサ11は以上の追跡処理を複数のインテリジェントカメラ102のそれぞれに関して個別に実行する。かくして複数の追跡データの生成が同時に行われ得る。複数のインテリジェントカメラ102のうちの多くは、撮影範囲の少なくとも一部を他のインテリジェントカメラ102と重複するように設けられる。このため、同時に生成される複数の追跡データがいずれも同一の人物103に関することもあるし、別々の人物103に関することもある。
プロセッサ11は、以上のような追跡処理とは別に、以下に説明する情報処理(以下、補正処理と称する)を実行する。
図6はプロセッサ11による補正処理のフローチャートである。
ACT21としてプロセッサ11は、複数の追跡データが同時に更新されるのを待ち受ける。例えばプロセッサ11は、1つの追跡処理(以下、第1の追跡処理と称する)に応じた追跡データ(以下、第1の追跡データと称する)と、別の追跡処理(以下、第2の追跡処理と称する)に応じた追跡データ(以下、第2の追跡データと称する)とがいずれも更新され、かつそれにより追加された時刻データが互いに同一である場合に、同時の更新としてYESと判定し、ACT22へと進む。
ACT22としてプロセッサ11は、第1及び第2の追跡データにそれぞれ新たに追加されたグローバル座標どうしの距離を判定する。プロセッサ11は例えば、第1及び第2の追跡データに追加されたグローバル座標(以下、第1のグローバル座標及び第2のグローバル座標と称する)を(X1A,Y1A,Z1A)及び(X1B,Y1B,Z1B)と表す場合に、次の式により算出する。
√{(X1A-X1B)2+(Y1A-Y1B)2+(Z1A-Z1B)2
さて、2つのインテリジェントカメラ102が一人の人物103をいずれも撮影する状態にあるとき、第1及び第2の追跡データが同時に更新されることがある。そしてその時に追加される第1及び第2のグローバル座標は、同じ位置に関しての判定結果である。しかしながら、2つのインテリジェントカメラ102の検出精度及び第1及び第2のグローバル座標の判定のための処理において生ずる誤差などにより、第1及び第2のグローバル座標が一致しない場合がある。
図7は1人の人物103に関して2つのインテリジェントカメラ102で判定された検出位置が一致しない様子の一例を示す図である。なお、2つのインテリジェントカメラ102は、別々の方向から人物103を撮影するのであるが、図7は便宜的に同一の条件で人物103を撮影した場合の検出位置にずれが生じる様子を表している。
図7における検出位置PO3-A及び第2の検出位置PO3-Bはいずれも、認識エリアAR1-A,AR1-Bが頭部に対してずれて判定されているために、理想的な検出位置PO3-Iからずれている。
また、2つのインテリジェントカメラ102が2人の人物103を個別に検出している場合は、当然ながら第1及び第2のグローバル座標が一致しない。
図8は互いにすれ違う2人の人物103-A,103-Bに関して2つのインテリジェントカメラ102で判定された検出位置の違いの一例を表す図である。なお、2つのインテリジェントカメラ102は、別々の方向から人物103-A、103-Bをそれぞれ撮影するのであるが、図8は便宜的に同一の条件で設置されたインテリジェントカメラ102から人物103-A,103-Bを撮影した場合の検出位置PO3-A,PO3-Bの違いを表している。
図8に示すように、別々の2人の人物103に関してはそもそも別々の位置に存在しており、頭部どうしは通常は十分に離れているので、検出位置PO3-A,PO3-Bは互いに大きく離れる。
そして、誤差に起因する検出位置PO3-A,PO3-Bのずれは、2人の人物103の存在位置の違いに起因する検出位置PO3-A,PO3-Bの違いに対して非常に小さい。
ACT23としてプロセッサ11は、上記の判定した距離が予め定められた誤差範囲内であるか否かを確認する。なお、誤差範囲は、インテリジェントカメラ102の性能などを考慮して、適宜に定められればよい。そしてプロセッサ11は、誤差範囲内であるためにYESと判定したならば、ACT24へと進む。
ACT24としてプロセッサ11は、第1及び第2のグローバル座標の中間位置を判定する。プロセッサ11は例えば、X1AがX1B以下であるならば、X1S=X1A,X1L=X1Bとし、またX1AがX1B未満であるならば、X1S=X1B,X1L=X1Aとする。プロセッサ11は例えば、Y1AがY1B以下であるならば、Y1S=Y1A,Y1L=Y1Bとし、またY1AがY1B未満であるならば、Y1S=Y1B,Y1L=Y1Aとする。プロセッサ11は例えば、Z1AがZ1B以下であるならば、Z1S=Z1A,Z1L=Z1Bとし、またZ1AがZ1B未満であるならば、Z1S=Z1B,Z1L=Z1Aとする。そしてプロセッサ11は例えば、次の式により、X1,Y1,Z1をそれぞれ算出する。
X1=X1S+(X1L-X1S)/2
Y1=Y1S+(Y1L-Y1S)/2
Z1=Z1S+(Z1L-Z1S)/2
ACT25としてプロセッサ11は、第1及び第2の追跡データを、最後に追加された第1及び第2のグローバル座標を、いずれもグローバル座標(X1,Y1,Z1)に変更する。
ACT26としてプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードが互いに一致するか否かを確認する。そしてプロセッサ11は、両対象者コードが異なっているならばNOと判定し、ACT27へと進む。
ACT27としてプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードを一致させる。プロセッサ11は例えば、第1及び第2の追跡データの一方のフィールドF1にセットされた対象者コードを、他方のフィールドF1にセットされた対象者コードに変更する。より具体的にはプロセッサ11は例えば、フィールドF3にセットされた時刻データがより新しい時刻を表す追跡データのフィールドF1にセットされている対象者コードを、他方の追跡データのフィールドF1にセットされている対象者コードに書き替える。あるいはプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1に、第1及び第2の追跡データを含む全ての追跡データのフィールドF1にセットされている対象者コードとは異なる新しい対象者コードをセットしてもよい。
こののちにプロセッサ11は、ACT21の待受状態に戻る。なおプロセッサ11は、ACT22で判定した距離が誤差範囲外であるならばACT23にてNOと判定し、ACT24乃至ACT27を実行することなく、ACT21の待受状態に戻る。つまりプロセッサ11は、第1の追跡処理及び第2の追跡処理によりそれぞれ判定されたグローバル座標と、第1の追跡データ及び第2の追跡データのそれぞれにセットされた対象者コードを変更することなくそのままとする。またプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードが互いに一致するならばACT26にてYESと判定し、ACT27を実行することなく、ACT21の待受状態に戻る。
続いて、上記の補正処理による追跡データの変更の様子を具体的に説明する。
図9はインテリジェントカメラ102による撮影範囲の形成状況の一例を模式的に示す平面図である。
図9では図1に示すグローバル座標系におけるXY平面を表す。そして図9は、4つのインテリジェントカメラ102により売場101を撮影する例である。なおここでは、4つのインテリジェントカメラ102の区別を容易とするために、符号として102A,102B,102C,102Dを用いることとする。
インテリジェントカメラ102A,102B,102C,102Dは、領域AR1,AR2,AR3,AR4をそれぞれ撮影する。領域AR1,AR2はそれぞれ、その半分ずつが領域AR3,AR4の半分ずつと重複する。かくして売場101には、それぞれが2つのインテリジェントカメラ102を用いて人物103を追跡する4つの追跡領域が形成されている。
図10は追跡領域の形成状況を表す図である。
追跡領域AR11は、インテリジェントカメラ102A,102Cを用いる追跡領域である。追跡領域AR12は、インテリジェントカメラ102B,102Cを用いる追跡領域である。追跡領域AR13は、インテリジェントカメラ102A,102Dを用いる追跡領域である。追跡領域AR14は、インテリジェントカメラ102B,102Dを用いる追跡領域である。
さて人物103が、図10中に矢印で示すように、グローバル座標が(X1,Y1,Z1)である位置で時刻TI1において最初に位置が判定されてから、グローバル座標が(X2,Y2,Z2)である位置を時刻TI2に経て、グローバル座標が(X3,Y3,Z3)である位置へと時刻TI3に到達した場合を考える。
図11は時刻TI1に関しての追跡データの補正の様子を示す図である。
インテリジェントカメラ102Aに関する追跡処理にてプロセッサ11は、図11に示す追跡データTD11を生成している。この例では、対象者コードは「OB11」とされている。またインテリジェントカメラ102Aのカメラコードは「CA1」である。人物103の位置は座標(X1、Y1,Z1)であるが、誤差を含んで座標(X11,Y11,Z11)と判定されている。時刻TI1における位置の判定は、インテリジェントカメラ102Aに関する追跡処理での最初の判定であるため、座標(X11,Y11,Z11)はフィールドF4にセットされている。
インテリジェントカメラ102Cに関する追跡処理にてプロセッサ11は、図11に示す追跡データTD21を生成している。この例では、対象者コードは「OB21」とされている。またインテリジェントカメラ102Cのカメラコードは「CA3」である。人物103の位置は座標(X1、Y1,Z1)であるが、誤差を含んで座標(X12,Y12,Z12)と判定されている。時刻TI1における位置の判定は、インテリジェントカメラ102Cに関する追跡処理での最初の判定であるため、座標(X12,Y12,Z12)はフィールドF4にセットされている。
そしてプロセッサ11による補正処理により、追跡データTD11は追跡データTD12に、また追跡データTD21は追跡データTD22に、それぞれ補正される。
追跡データTD12,TD22においては、それぞれのフィールドF4が、座標(X11,Y11,Z11)と座標(X12,Y12,Z12)との中間的な位置としての座標(X13,Y13,Z13)に変更されている。また追跡データTD22のフィールドF1は、追跡データTD12のフィールドF1にセットされている対象者コードである「OB11」に変更されている。
時刻TI2においては、人物103が追跡領域AR11から追跡領域AR12へと移っている。つまり人物103は、インテリジェントカメラ102Aによる撮影領域AR1から出ている。これにより、人物103についてのインテリジェントカメラ102Aに関する追跡処理は終了されている。代わりに、人物103がインテリジェントカメラ102Bの撮影領域AR2に入ったために、人物103についてのインテリジェントカメラ102Bに関する追跡処理が開始されることになる。なお、人物103は、インテリジェントカメラ102Cの撮影領域AR3から出ていないので、インテリジェントカメラ102Cに関する追跡処理は継続されている。
このため、時刻TI2に関しては、インテリジェントカメラ102Cに関する追跡処理及びインテリジェントカメラ102Bに関する追跡処理によってそれぞれの追跡処理に関する追跡データに位置の判定結果が追加される。
図12は時刻TI2に関しての追跡データの様子を示す図である。
インテリジェントカメラ102Cに関する追跡処理にてプロセッサ11は、人物103の移動に伴って、図11に示す追跡データTD22に更に複数組のフィールドを追加しており、その最後の2つのフィールドFm,Fnに、時刻TI2を表す時刻データと、時刻TI2に関して判定した座標とをセットして、追跡データTD23としている。時刻TI2における人物103の位置は座標(X2、Y2,Z2)であるが、誤差を含んで座標(X21,Y21,Z21)と判定されている。
インテリジェントカメラ102Bに関する追跡処理にてプロセッサ11は、図12に示す追跡データTD31を生成している。この例では、対象者コードは「OB31」とされている。またインテリジェントカメラ102Bのカメラコードは「CA2」である。人物103の位置は座標(X2、Y2,Z2)であるが、誤差を含んで座標(X22,Y22,Z22)と判定されている。時刻TI2における位置の判定は、インテリジェントカメラ102Bに関する追跡処理での最初の判定であるため、座標(X22,Y22,Z22)はフィールドF4にセットされている。
そしてプロセッサ11による補正処理により、追跡データTD23は追跡データTD24に、また追跡データTD31は追跡データTD32に、それぞれ補正される。
追跡データTD24においてはフィールドFnが、また追跡データTD32においてはフィールドF4が、座標(X21,Y21,Z21)と座標(X22,Y22,Z22)との中間的な位置としての座標(X23,Y23,Z23)に変更されている。また追跡データTD32のフィールドF1は、追跡データTD24のフィールドF1にセットされている対象者コードである「OB11」に変更されている。
時刻TI3においては、人物103が追跡領域AR12から追跡領域AR13へと移っている。つまり人物103は、インテリジェントカメラ102Cによる撮影領域AR3から出ている。これにより、人物103についてのインテリジェントカメラ102Cに関する追跡処理は終了されている。代わりに、人物103がインテリジェントカメラ102Dの撮影領域AR4に入ったために、人物103についてのインテリジェントカメラ102Dに関する追跡処理が開始されることになる。なお、人物103は、インテリジェントカメラ102Bの撮影領域AR2から出ていないので、インテリジェントカメラ102Dに関する追跡処理は継続されている。
このため、時刻TI3に関しては、インテリジェントカメラ102Bに関する追跡処理及びインテリジェントカメラ102Dに関する追跡処理によってそれぞれの追跡処理に関する追跡データに位置の判定結果が追加される。このときのインテリジェントカメラ102Bに関する追跡処理に関する追跡データは、図12に示す追跡データTD23のように複数組の時刻データ及び位置データを含む。インテリジェントカメラ102Dに関する追跡処理に関する追跡データは、図12に示す追跡データTD31のように1組の時刻データ及び位置データを含む。そして、この場合も時刻TI2と同様にして各追跡データが変更される。
以上のように追跡装置1によれば、インテリジェントカメラ102によって測定された人物103までの距離を考慮して人物103の位置を判定するので、カメラにより撮影された動画のみに基づく場合に比べて位置の判定精度が向上する。そしてこの結果として追跡装置1により高精度に判定された位置に基づけば、人物103の移動をより高精度に追跡することが可能となる。
そして追跡装置1によれば、判定した位置を時系列に記録した追跡データを生成しているので、この追跡データに基づいて人物103の移動軌跡を容易に認識できる。
さらに、2つのインテリジェントカメラ102により同一の人物103が同時に検出された場合には、2つの検出データから第1の実施形態の情報処理によりそれぞれ判定した2つのグローバル座標を考慮して追跡データを補正する。かくして、上記のように精度よく判定しても残る誤差を補償して、より精度のよい位置判定が行える。
また追跡装置1によれば、上記のように追跡データを補正する場合には、補正の対象となる2つの追跡データの対象者コードを統一する。これにより、複数の追跡データがいずれも同一の人物103に関するデータであることを識別可能となる。そして該当の複数の追跡データに基づいて、複数のインテリジェントカメラ102の撮影範囲に跨がる広範囲での人物の行動を追跡できる。
なお、別々の人物103の位置が同時に判定される場合には、それぞれの人物103に関しての追跡データの補正は行われず、対象者コードの統一もなされないため、それら複数の追跡データに基づいて、当該の別々の人物103の個別の行動を識別できる。
このようにして、複数のインテリジェントカメラ102を用いて同時に判定された複数の位置が、いずれも同一の人物103に関するか、それとも別々の複数の人物103に関するかを管理可能となる。つまり、複数の追跡データは、同時刻に関して誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、かつ同時刻に関して誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定した結果を表していることになる。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは第2の位置判定手段として機能していることになる。
また追跡装置1によれば、追跡データを蓄積した履歴データベースを生成しているので、この履歴データベースに基づいて、インテリジェントカメラ102の撮影領域内への人物103の出入り及び過去における移動軌跡を容易に認識できる。
また追跡装置1によれば、3次元のグローバル座標系における座標として、人物103の頭部の位置を判定している。このため、Z座標に基づいて、人物103が立ったり、しゃがんだりする行動をも認識することが可能となる。そしてこのような認識の結果は、商品の陳列棚から人物103が取り出した商品を特定する情報処理に有用な情報となる。
また追跡装置1によれば、インテリジェントカメラ102が出力する検出データの異常が疑われる場合には、その検出データのうちの距離データを位置判定に用いない。これにより、インテリジェントカメラ102の測定距離に大きな誤差を生ずる恐れがある場合でも、位置判定の精度の低下を小さく抑えることができる。
また追跡装置1によれば、インテリジェントカメラ102が出力する検出データの異常が疑われる場合でも、その検出データのうちの領域データは位置判定に用いる。このため、人物103が位置しているインテリジェントカメラ102からの方向については、最新の検出結果が位置の判定に反映されることとなり、検出データの全てを用いない場合に比べて位置判定の精度の低下を小さく抑えることができる。
また追跡装置1によれば、連続する2回の位置判定により判定された2つの検出位置の間の平均の移動速度に基づいてインテリジェントカメラ102が出力する検出データの異常であるか否かを判定している。このため、例えば人物がインテリジェントカメラ102からみて物陰となる位置を通ったことによって、2回の位置判定により判定された2つの検出位置の距離が大きくなったとしても、平均速度が過剰となることはなく、新たな検出データが異常であると誤判定することがない。
この実施形態は、次のような種々の変形実施が可能である。
図6中のACT24及びACT25は、省略してもよい。
ACT27における対象者コードの変更は行わず、例えば以下に示すような別の処理によって、複数の位置の判定結果を同一の対象物に関する判定結果として管理可能とすることもできる。
(1) 第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードを互いに関連付けて表した管理データを生成してもよい。
(2) 第1の追跡データのフィールドF1にセットされた対象者コードをセットした新たなフィールドを第2の追跡データに追加し、第2の追跡データのフィールドF1にセットされた対象者コードをセットした新たなフィールドを第1の追跡データに追加してもよい。
ACT27における対象者コードの変更は行わず、後処理によって同一の人物103に関する複数の追跡データを前述と同様に判定してもよい。
人物103に関する複数の追跡データを統合して1つの追跡データを生成してもよい。
図2に示す追跡処理からACT11における追跡データの更新を分離し、同時に誤差範囲内で判定された複数の位置に応じて1つの位置のグローバル座標を1つの追跡データに追加してもよい。
売場101内の水平面として設定された2次元のグローバル座標系における座標として人物103の位置を追跡してもよい。この場合も、距離データを用いない場合に比べて、位置検出の精度を向上することが可能である。
検出データの異常は、単位時間当たりの移動距離に基づいて判定してもよい。なお、インテリジェントカメラ102が一定の時間間隔で検出データを出力するのであれば、プロセッサ11は前回の検出位置PO3と今回の検出位置PO3との距離に基づいて検出データの異常を判定してもよい。
検出データの異常は、連続する2回の位置判定により判定された2つの検出位置の間の距離を閾値と比較することによって判定してもよい。ただしこの場合は、当該の連続する2回の位置判定の時間差が大きいほど大きな閾値を適用することが望ましい。
プロセッサ11は、異常と判定した検出データの全てを位置判定に用いないようにしてもよい。つまりプロセッサ11は例えば、図2中のACT8にてYESと判定した場合は、ACT2へと戻るようにしてもよい。ただしこの場合は、位置判定の時間分解能が前記実施形態に比べて低下する。
インテリジェントカメラ102は、人物103の胴体などの頭部以外の部位、あるいは人物103の全身を内包する領域として認識エリアを判定するものであってもよい。
インテリジェントカメラ102は、例えばショッピングカートなどの人物103以外の任意の対象物を検出するものであってもよい。そしてこの場合に追跡装置1は、インテリジェントカメラ102が検出する人物103以外の対象物を追跡する装置として利用される。
インテリジェントカメラ102を追跡装置1に内蔵してもよい。
人物103の移動を監視する対象となる施設は店舗100には限らず、会館などの任意の建物、あるいは道路及び公園などの如何なる施設であっても構わない。
プロセッサ11は、インテリジェントカメラ102が出力する検出データを蓄積記憶する記憶媒体からの読み出しによって検出データを取得してもよい。この場合の検出データの読み出しは、プロセッサ11によって直接的に行われてもよいし、他の情報処理装置を介して間接的に行われてもよい。
図2に示す追跡処理と図6に示す補正処理とを一体の情報処理としてもよい。例えば、プロセッサ11は、ACT11ののち、他の追跡データが同時更新されたか否かを確認する。そしてプロセッサ11は、同時更新されているならば、図6中のACT22乃至ACT27を実行する。ただしプロセッサ11は、同じ情報処理内のACT11にて直前に追跡データに追加したグローバル座標のみを補正する。またプロセッサ11はこの場合は、他の追跡データが同時更新されていないか、ACT23にてNOと判定したか、ACT26にてYESと判定したか、あるいはACT27を終えたならば、図2中のACT2に戻る。
1人の人物103に関して、3つ以上のインテリジェントカメラ102を用いて判定された3つ以上のグローバルに基づいて補正を行ってもよい。つまり例えばプロセッサ11は、誤差範囲内である複数のグローバル座標の中間的な位置として、それら複数のグローバル座標の補正後のグローバル座標を判定する。
図2に示す複数の情報処理と、図6に示す情報処理とを、複数の情報処理装置によって分散処理してもよい。なおこの場合は、当該複数の情報処理装置の組み合わせによって追跡装置が構成される。
情報処理によりプロセッサ11が実現する各機能は、その一部又は全てをロジック回路などのようなプログラムに基づかない情報処理を実行するハードウェアにより実現することも可能である。また上記の各機能のそれぞれは、上記のロジック回路などのハードウェアにソフトウェア制御を組み合わせて実現することも可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…追跡装置、11…プロセッサ、12…メインメモリ、13…補助記憶ユニット、14…通信インタフェース、15…伝送路、100…店舗、101…売場、102…インテリジェントカメラ、103…人物。

Claims (6)

  1. 施設内での設置位置及び撮影中心方向がそれぞれ既知である複数のカメラから、当該カメラによる撮影画像内で対象物が映り込んでいる領域を特定する領域データと、予め定められた基準位置から前記対象物までの距離を特定する距離データとをそれぞれ取得する取得手段と、
    前記取得手段により取得された前記領域データに基づいて、前記カメラからの前記対象物の方向と前記撮影中心方向とのずれ量を判定する処理を、前記複数のカメラのそれぞれに関して行う向き判定手段と、
    前記カメラの設置位置及び撮影中心方向と、前記向き判定手段により判定された前記ずれ量と、前記取得手段により取得された前記距離データとに基づいて、前記対象物の前記施設内での位置を判定する処理を、前記複数のカメラのそれぞれに関して行う第1の位置判定手段と、
    前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定する第2の位置判定手段と、
    を具備した追跡装置。
  2. 前記第2の位置判定手段による判定結果を時系列に表した追跡データを生成する生成手段、
    をさらに備える請求項1に記載の追跡装置。
  3. 前記第1の位置判定手段は、前記施設内に定められた3次元座標系における座標として、前記対象物としての人物の頭部の位置を判定する、
    請求項1又は請求項2に記載の追跡装置。
  4. 前記距離データが異常であることを検出する検出手段、
    をさらに備え、
    前記第1の位置判定手段は、前記検出手段により異常があることが検出された前記距離データに基づかずに、当該距離データとともに前記取得手段により取得された前記領域データに基づいて前記向き判定手段により判定されたずれ量に基づく位置の判定を行う
    請求項1乃至請求項3のいずれか一項に記載の追跡装置。
  5. 前記取得手段は、複数の前記カメラから前記領域データと前記距離データとを取得し、
    前記向き判定手段は、前記取得手段により複数の前記領域データのそれぞれに基づいて複数の前記ずれ量を判定し、
    前記第1の位置判定手段は、前記複数のカメラのそれぞれの設置位置及び撮影中心方向と、前記向き判定手段により判定された複数の前記ずれ量と、前記取得手段により取得された前記複数の距離データとに基づいて、前記対象物の位置を複数判定し、さらにこれら複数の位置の中間的な位置として前記対象物の前記施設内での位置を判定する、
    請求項1乃至請求項4のいずれか一項に記載の追跡装置。
  6. 追跡装置に備えられたコンピュータを、
    施設内での設置位置及び撮影中心方向がそれぞれ既知である複数のカメラから、当該カメラによる撮影画像内で対象物が映り込んでいる領域を特定する領域データと、予め定められた基準位置から前記対象物までの距離を特定する距離データとをそれぞれ取得する取得手段と、
    前記取得手段により取得された前記領域データに基づいて、前記カメラからの前記対象物の方向と前記撮影中心方向とのずれ量を判定する処理を、前記複数のカメラのそれぞれに関して行う向き判定手段と、
    前記カメラの設置位置及び撮影中心方向と、前記向き判定手段により判定された前記ずれ量と、前記取得手段により取得された前記距離データとに基づいて、前記対象物の前記施設内での位置を判定する処理を、前記複数のカメラのそれぞれに関して行う第1の位置判定手段と、
    前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定する第2の位置判定手段と、
    して機能させるための情報処理プログラム。
JP2019089209A 2019-05-09 2019-05-09 追跡装置及び情報処理プログラム Active JP7253441B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019089209A JP7253441B2 (ja) 2019-05-09 2019-05-09 追跡装置及び情報処理プログラム
US16/813,667 US11228654B2 (en) 2019-05-09 2020-03-09 Tracking device, tracking method, and tracking system
CN202010175798.9A CN111915656A (zh) 2019-05-09 2020-03-13 追踪装置及信息处理方法、可读存储介质、电子设备
EP20169189.6A EP3736734A1 (en) 2019-05-09 2020-04-10 Tracking device, tracking method and tracking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089209A JP7253441B2 (ja) 2019-05-09 2019-05-09 追跡装置及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020184733A JP2020184733A (ja) 2020-11-12
JP7253441B2 true JP7253441B2 (ja) 2023-04-06

Family

ID=70285580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089209A Active JP7253441B2 (ja) 2019-05-09 2019-05-09 追跡装置及び情報処理プログラム

Country Status (4)

Country Link
US (1) US11228654B2 (ja)
EP (1) EP3736734A1 (ja)
JP (1) JP7253441B2 (ja)
CN (1) CN111915656A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) * 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
CN113518214B (zh) * 2021-05-25 2022-03-15 上海哔哩哔哩科技有限公司 全景视频数据处理方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217229A (ja) 2010-04-01 2011-10-27 Victor Co Of Japan Ltd 撮像装置および表示方法
US20140064560A1 (en) 2007-07-03 2014-03-06 Pivotal Vision, Llc Motion-validating remote monitoring system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297478A (ja) 2003-03-27 2004-10-21 Fuji Photo Film Co Ltd デジタルカメラ
JP4677737B2 (ja) 2004-06-01 2011-04-27 沖電気工業株式会社 防犯支援システム
JP5158386B2 (ja) * 2010-06-22 2013-03-06 株式会社アイティーティー 単一カメラによる画像計測処理装置,画像計測処理方法および画像計測処理プログラム
JP5727969B2 (ja) * 2012-06-15 2015-06-03 株式会社東芝 位置推定装置、方法、及びプログラム
KR20160091316A (ko) 2013-11-27 2016-08-02 울트라덴트 프로덕츠, 인코포레이티드 물리적 위치들 간 비디오 대화
JP6668942B2 (ja) 2016-05-23 2020-03-18 富士通株式会社 撮影制御装置、プログラム及び方法
CN107168520B (zh) * 2017-04-07 2020-12-18 北京小鸟看看科技有限公司 基于单目摄像头的追踪方法、vr设备和vr头戴设备
US11765323B2 (en) 2017-05-26 2023-09-19 Calumino Pty Ltd. Apparatus and method of location determination in a thermal imaging system
JP6734994B2 (ja) * 2017-06-23 2020-08-05 株式会社日立製作所 ステレオ計測装置及びシステム
CN107588777B (zh) 2017-09-27 2020-01-17 京东方科技集团股份有限公司 室内定位***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140064560A1 (en) 2007-07-03 2014-03-06 Pivotal Vision, Llc Motion-validating remote monitoring system
JP2011217229A (ja) 2010-04-01 2011-10-27 Victor Co Of Japan Ltd 撮像装置および表示方法

Also Published As

Publication number Publication date
CN111915656A (zh) 2020-11-10
JP2020184733A (ja) 2020-11-12
EP3736734A1 (en) 2020-11-11
US20200358863A1 (en) 2020-11-12
US11228654B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
JP7253441B2 (ja) 追跡装置及び情報処理プログラム
CN110807350B (zh) 用于面向扫描匹配的视觉slam的***和方法
US10542219B2 (en) Information collecting apparatus, information collecting system and information collecting method
US7496471B2 (en) Surveying apparatus and method of analyzing measuring data
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US11143511B2 (en) On-vehicle processing device
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
US10499038B2 (en) Method and system for recalibrating sensing devices without familiar targets
KR20110122022A (ko) 지도 생성 장치 및 방법
JP5205366B2 (ja) 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
JP6217373B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
US9091821B2 (en) Device and method of focusing on points of objects
JP5445069B2 (ja) 3次元位置計測装置および3次元位置計測方法
JP7253440B2 (ja) 追跡装置及び情報処理プログラム
US11039114B2 (en) Method for determining distance information from images of a spatial region
US20220292713A1 (en) Information processing apparatus, information processing method, and storage medium
WO2020021596A1 (ja) 車両位置推定装置および車両位置推定方法
KR102555269B1 (ko) 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템
CN113343907B (zh) 障碍物检测方法、障碍物检测模组及自移动设备
US20240206729A1 (en) Reflexive eye movement evaluation device, reflexive eye movement evaluation system, and reflexive eye movement evaluation method
JP7409163B2 (ja) 定置センサ較正装置、および、定置センサ較正方法
JP2019020218A (ja) データ間引き装置、測量装置、測量システム及びデータ間引き方法
CN115661055A (zh) 一种物体尺寸测量方法、装置、***及可读存储介质
CN117519164A (zh) 可移动机器人的导航方法及可移动机器人

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7253441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150