JP5339065B2 - 対象物追跡装置 - Google Patents

対象物追跡装置 Download PDF

Info

Publication number
JP5339065B2
JP5339065B2 JP2009064497A JP2009064497A JP5339065B2 JP 5339065 B2 JP5339065 B2 JP 5339065B2 JP 2009064497 A JP2009064497 A JP 2009064497A JP 2009064497 A JP2009064497 A JP 2009064497A JP 5339065 B2 JP5339065 B2 JP 5339065B2
Authority
JP
Japan
Prior art keywords
frame
tracking
region
area
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009064497A
Other languages
English (en)
Other versions
JP2010218232A (ja
Inventor
敏雄 茂出木
正敏 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009064497A priority Critical patent/JP5339065B2/ja
Publication of JP2010218232A publication Critical patent/JP2010218232A/ja
Application granted granted Critical
Publication of JP5339065B2 publication Critical patent/JP5339065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、撮影された動画像の中から、映っている対象物を追跡する技術に関する。
従来、撮影した動画像において、映っている対象物を追跡する技術としては、様々なものが提案されている。対象物を追跡する技術としては、例えば、リアルタイムに対象物の重心点の移動軌跡を解析表示できる技術(特許文献1参照)や、単一粒子の重心点など特徴点を三次元的に追跡する技術が提案されている(特許文献2参照)。
特開2006−72109号公報 特開2006−113462号公報
上記特許文献1、2の技術では、動画像を構成する各フレームごとに独立して領域抽出と重心算出を行っており、同一の対象物を同定しているわけではない。そのため、移動中に他の隣接粒子に近づくと、追跡中の粒子との識別ができなくなり、統計的な速度解析など大雑把な計測にしか利用できないという問題がある。
そこで、本発明は、タイムラプス撮像された動画データの各フレームに写っている対象物を、他の物体と誤検出することなく追跡することが可能な対象物追跡装置を提供することを課題とする。
上記課題を解決するため、本発明では、複数のフレームで構成される動画ファイルに対して、対象物を追跡する複数のフレームで構成される追跡フレーム群を設定する追跡フレーム群設定手段と、前記追跡フレーム群の先頭フレームF(0)内の対象物を特定し、当該対象物の位置を特定する対象物中心座標を前記先頭フレームF(0)上で設定するとともに、前記対象物の存在する領域を示す対象物領域R(0)を設定する対象物特定手段と、前記追跡フレーム中の各フレームF(i)において、先行フレームF(i−1)の対象物領域R(i−1)と同サイズの比較領域を、前記対象物領域R(i−1)の中心位置を基準に上下左右に所定の範囲に渡って(+X,+Y)だけ移動させて複数設定し、各比較領域について前記対象物領域R(i−1)との対応する画素同士の差分の総和d(X,Y)を算出し、当該総和d(X,Y)が最小となる比較領域を、前記フレームF(i)の対象物領域R(i)として設定するとともに、当該対象物領域R(i)の中心に位置する画素に対象物中心座標を設定する追跡処理手段と、前記各フレームF(i)において、前記対象物中心座標が設定された画素を含む所定の範囲に幾何学形状の対象物マークを上書きする軌跡描画手段と、を有し、前記追跡処理手段の処理により前記総和d(X,Y)が最小となる比較領域を特定できなかった場合、前記追跡フレーム群設定手段が前記追跡フレーム群を再設定することを特徴とする対象物追跡装置を提供する。
本発明によれば、複数のフレームで構成される動画ファイルに対して、対象物を追跡する複数のフレームで構成される追跡フレーム群を設定し、追跡フレーム群ごとに一定の追跡条件で対象物を追跡するようにしたので、動画ファイル全体で対象物の動きが前記追跡条件を逸脱するように多様に変化しても連続して追跡することができ、先行フレームF(i−1)の対象物領域R(i−1)と同サイズの比較領域を、対象物領域R(i−1)の中心位置を基準に上下左右に所定の範囲に渡って移動させて複数設定し、各比較領域と対象物領域R(i−1)を比較して最も画素の差分総和d(X,Y)が小さい比較領域をフレームF(i)の対象物領域R(i)とするようにしたので、たとえ対象物の外形形状が隣接する他の対象物と類似していても、所定の範囲を超えた他の物体を誤って検出することなく、追跡中の対象物を追跡することが可能となる。
本発明によれば、タイムラプス撮像された動画データの各フレームに写っている対象物を、他の物体と誤検出することなく追跡することが可能となるという効果を奏する。
本発明に係る対象物追跡装置の構成図である。 本発明に係る対象物追跡装置の処理概要を示すフローチャートである。 第1の手法を利用した場合の対象物追跡処理の概念図である。 第1の手法を利用した場合の対象物追跡処理の詳細を示すフローチャートである。 第2の手法を利用した場合の対象物追跡処理の概念図である。 第2の手法を利用した場合の対象物追跡処理の詳細を示すフローチャートである。 軌跡描画処理の詳細を示すフローチャートである。 描画された対象物の移動軌跡を示す図である。 対象物の移動軌跡を利用した偏向角算出の説明図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.細胞の培養および撮影)
本発明に係る細胞画像解析装置を利用して細胞画像の解析を行うにあたり、事前に細胞を培養し、培養した細胞を撮影する工程が必要になる。まず、この細胞の培養および撮影について説明する。細胞の遊走方向を制御するためには、ある程度、細胞の移動先を誘導してやる必要がある。そこで、本実施形態では、細胞接着性領域/非接着性領域が所定の幅のラインパターンを底部に設けた細胞培養ディッシュを用意し、この細胞培養ディッシュ内で細胞を培養する。本実施形態では、東海ヒット社の顕微鏡用培養装置INUG2−ONIを用いて培養する。
続いて、培養した細胞を、細胞培養ディッシュ上において、5分毎に1枚撮影する。撮影枚数は任意であるが、本実施形態では約18時間に渡り、217枚撮影する。本実施形態では、オリンパス社の蛍光位相差顕微鏡IX71を用いて撮影する。
次に、得られた217枚の画像をコンピュータにより動画変換処理し、培養細胞のタイムラプスデータを取得する。本実施形態では、汎用のコンピュータに、オリンパス社のソフトウェアDPManagerを組み込んでおき、コンピュータがDPManagerの実行プログラムに従った処理を実行することにより、記憶装置から217枚の画像を読み込んで動画変換処理し、培養細胞のタイムラプスデータである動画ファイルを取得する。
(2.装置構成)
動画ファイルが取得できたら、本発明に係る対象物追跡装置により、この動画ファイル内の対象物の追跡を行う。まず、本発明に係る対象物追跡装置の構成について説明する。図1は本発明に係る対象物追跡装置の構成図である。図1において、10は動画ファイル記憶手段、20は画像表示手段、30は入力指示手段、40は演算処理部、41は追跡フレーム群設定手段、42は対象物特定手段、43は追跡処理手段、44は軌跡描画手段である。
動画ファイル記憶手段10は、前準備により得られた動画ファイル(細胞撮影動画)を記憶しているとともに、追跡処理により軌跡を記録した軌跡付動画データ、その他処理に必要な種々のデータや処理過程に応じて生じるデータを記憶するものであり、ハードディスク等のコンピュータに接続または内蔵された記憶装置により実現される。動画ファイルとしては、具体的には、上記DPManager、ImageJ、MTrackJにより処理されたものが準備される。したがって、動画ファイル記憶手段10内の動画ファイルは、複数の静止画像(フレーム)の集合として存在する。また、動画ファイル記憶手段10は、画像上の座標値に基づく距離をSI単位系の距離に変換することを可能とするため、撮影画像の縮尺情報を記憶している。さらに、動画ファイル記憶手段10は、タイムラプスデータの情報として、各静止画像が実際にどの程度の時間間隔で撮影されたものであるかを示す情報をフレームレートとして記憶している。
画像表示手段20は、動画ファイル記憶手段10内に記憶された動画ファイルを表示するものであり、液晶ディスプレイ等のコンピュータに接続された各種表示装置により実現される。入力指示手段30は、演算処理部40に対して、様々な入力指示を行うためのものであり、キーボード、マウス等の入力指示機器により実現される。
演算処理部40は、追跡フレーム群設定手段41、対象物特定手段42、追跡処理手段43、軌跡描画手段44を有しており、コンピュータのCPU、ビデオメモリ、描画アクセラレータおよび主メモリにより実現される。追跡フレーム群設定手段41、対象物特定手段42、追跡処理手段43、軌跡描画手段44は、主メモリに専用のプログラムを読み込み、CPUが適宜描画アクセラレータに所定の指令を出し、ビデオメモリに所定のデータを書き込みながら実行することにより実現される。図1に示した対象物追跡装置は、現実には汎用のコンピュータに専用のプログラムを組み込むことにより実現される。また、各記憶手段は、コンピュータに内蔵または接続されたハードディスク等の記憶装置で実現される。
(3.処理動作)
次に、図1に示した対象物追跡装置の処理動作について、図2のフローチャートを用いて説明する。まず、追跡フレーム群設定手段41が、利用者に対して、動画データを構成するフレームのうち、追跡対象とするフレーム群である追跡フレーム群を指定するよう促す。具体的には、画像表示手段20に対して、先頭フレームと最終フレームのフレーム番号の入力欄を表示し、フレーム番号を入力させるようにする。利用者が、入力指示手段30を用いてフレーム番号を入力すると、追跡フレーム群設定手段41は、先頭フレームから最終フレームまでのフレーム群を追跡フレーム群として設定する(S1)。このように、動画データ全体を幾つかのフレーム群に分割して追跡処理を行い、動画データ全体に対して一度に追跡処理を行なわない理由は、途中のフレームで後述する追跡条件を逸脱するような対象物の動きが発生すると、それ以降のフレームでは追跡不能に陥るか、あるいは他の対象物を誤って追跡する可能性があるためである。追跡条件を逸脱するような対象物の動きが発生する場合としては、何らかの要因により対象物が急激な速度で移動する場合や、対象物が3次元的に奥行き方向に移動することにより、2次元的に撮像しているカメラの視野から一時的に消失したり突如に再登場する場合が考えられる。
追跡フレーム群が設定されたら、対象物特定手段42が、先頭フレームにおいて対象物の特定を行う(S2)。具体的には、まず、対象物特定手段42は、動画ファイル中から設定された追跡フレーム群を読み込む。そして、対象物特定手段42は、読み込んだ追跡フレーム群の中から、先頭フレームを抽出し、先頭フレームに写っている対象物を検出する。先頭フレーム内の対象物の検出は、静止画像中から対象物を検出するための公知の技術を採用することができる。検出された対象物の特定手法としては、様々なものがあるが、ここでは、フレーム上における対象物のx座標最大値、x座標最小値、y座標最大値、y座標最小値の4つの値で特定するものとする。なお、先頭フレームにおける対象物の特定は、コンピュータが検出するものでなくても良く、対象物特定手段42により画像表示手段20に表示された先頭フレームを肉眼で確認し、利用者が、マウス等の入力機器を用いて先頭フレーム上における対象物を特定するようにしても良い。
さらに、対象物特定手段42は、追跡に用いるための対象物領域を設定する(S3)。対象物領域の設定は、後述する第1の手法と第2の手法により異なる。所定の領域における重心の算出を行う第1の手法では、特定された対象物のx座標最大値、x座標最小値、y座標最大値、y座標最小値を全て含む範囲、すなわち対象物より一回り大きい矩形領域を対象物領域として設定する。本手法では、追跡において対象物の外形形状の変化については無視しているため、遊走にともなって輪郭形状や大きさが多彩に変化する細胞に対して追跡を行うのに適している。しかし、隣接する細胞との判別ができないため、それを考慮した追跡を行う場合に対応するため、領域同士の比較を行いながら外形形状の類似性を考慮した第2の手法を提案している。この第2の手法では、特定された対象物のx座標最大値、x座標最小値、y座標最大値、y座標最小値で構成される矩形よりも一回り小さい矩形領域を対象物領域として設定する。これは、第1の手法では、隣接フレーム間での対象物の移動に基づき対象物領域の重心点が変化する特徴を用いて追跡する方法をとっているため、隣接フレーム間での対象物の移動可能範囲に対応する分だけ対象物領域を大きく設定しないと適切な追跡が行えないためてある。一方、第2の手法では、対象物領域は照合計算を簡便にするため、真の対象物輪郭(細胞・核であれば楕円形のような輪郭)を囲む矩形形状で定義するようにしているため、対象物領域内の特に周辺部では真の対象物以外の背景部を多く含むため、そのままの矩形領域どうしで照合演算を行うと誤判定が生じるからである。
次に、追跡処理手段43が、設定した追跡フレーム群を用いて対象物の追跡を行う(S4)。具体的には、上記対象物領域を用いて隣接フレーム間で演算を行い、後続フレームにおける対象物を特定する。詳細な処理については、第1の手法、第2の手法により異なるので後述する。追跡フレーム群全てのフレームについて処理が終了した場合には追跡処理を終了し、追跡フレーム群全てのフレームについての処理が終了していない場合にはS4の処理を繰り返す。
次に、上記S2、S4における対象物追跡処理の詳細を、第1の手法、第2の手法に分けて説明する。図3は、対象物追跡処理に対象物領域の重心を用いる第1の手法の概要を示す概念図である。図3では、フレームF(1)〜F(3)までの連続する3フレームにおける追跡処理を示している。図3において、上段、中段に示す星型は、特定された対象物を例示している。また、上段は元の多値画像、中段は比較対象領域が二値化された画像を示している。第1の手法の場合、S2において、対象物の周囲に対象物領域を設定する。この対象物領域は、上述のように、特定された対象物のx座標最大値、x座標最小値、y座標最大値、y座標最小値を全て含む範囲、すなわち対象物より一回り大きい矩形領域を対象物領域として設定する。対象物領域は、図3の上段フレームF(1)に示すように、対象物を囲む矩形領域として設定される。
次に、S4の詳細について説明する。図4は、第1の手法における動き追跡処理の詳細を示すフローチャートである。フレームF(i)に対する追跡処理を行う際、追跡処理手段43は、S1で定義された追跡フレームの2番目以降のフレームであるフレームF(i)を読み込む(S21)。そして、先行するフレームF(i−1)における対象物領域R(i−1)と同サイズ・同位置の対応領域R´(i−1)内の画像を二値化する(S22)。二値化は、元の多値画像における画素の値と閾値との大小関係により行う。この際の閾値は、事前に設定しておくことができる。
次に、二値化した対応領域R´(i−1)内の重心の算出を行う(S23)。具体的には、追跡処理手段43が、二値化後の対応領域R´(i−1)内の画素値をB(x,y)として、以下の〔数式1〕に従った処理を実行することにより重心(Xg,Yg)を算出する。なお、元画像がカラー画像である場合には、RGB別に実行し、総和をとる。
〔数式1〕
Xg=Σx,y∈R´(i-1)B(x,y)・x/Σx,y∈R´(i-1)B(x,y)
Yg=Σx,y∈R´(i-1)B(x,y)・y/Σx,y∈R´(i-1)B(x,y)
上記〔数式1〕における重心(Xg,Yg)は、フレームF(i)全体ではなく、対応領域R´(i−1)内の相対的な位置を示すものである。図3においては、下段のフレームF(1)において、対応領域R´(0)内の十字線の交差した点として重心位置(x1,y1)を示す。
続いて、フレームF(i)の対象物領域R(i)の特定を行う(S24)。具体的には、重心にフレームF(i)の対応領域R´(i−1)の中心座標(Xc,Yc)を加算して、フレームF(i)における対応領域R´(i−1)の重心位置(Xg+Xc,Yg+Yc)を次のフレームF(i)における対象物領域R(i)の中心座標として対象物中心座標テーブルに出力する。次にフレームF(i)が最終フレームであるかどうかを判定し(S25)、最終フレームでなければ、次のフレームF(i+1)に進む(S26)。
次のフレームF(i+1)についても、フレームF(i)の場合と同様に、S24で特定された対応領域R´(i)を用いて、画像の二値化を行い(S22)、重心を算出する(S23)。そして、その重心を中心とする対象物領域R(i+1)を特定する(S24)。同様にして、図2のS3において定義された追跡フレーム群全てのフレームに対して処理を行い、最終フレームを終えたら(S25)、追跡処理を終了する。
重心を利用する第1の手法では、前フレームF(i−1)の対象物領域R(i−1)内の対応領域R´(i−1)内の重心を、次フレームF(i)の対象物領域R(i)の中心とするため、連続するフレームF(i−1)およびフレームF(i)間において、対象物領域の位置が大きく変化することは比較的少ない。しかし、対象物領域の位置が大きく変化することもありえる。例えば、何らかの要因で対象物が急激に移動する場合や、対象物が3次元的に奥行き方向に移動したため、2次元的に撮像しているカメラの視野から一時的に消失し、突如再登場することもある。その場合は、前記対象物領域を大きく設定し直せば当該フレームF(i)では解消することもあるが、逆に隣接する他の対象物が再設定された所定の範囲に含まれる可能性も増大し、後続フレームにおいて、誤った重心計算に基づいて他の対象物を追跡してしまう問題が生じやすくなる。そこで、本実施形態では、このような問題が生じる場合、図2のS1における追跡フレーム群の設定をやり直すようにしている。即ち、F(i)以降は新たな追跡フレーム群に設定し直し、当該追跡フレーム群における追跡処理はF(i−1)の段階で中断させる。このようにして、他の細胞が近づいてきたとしても、誤ってそちらを検出することなく、対象物である細胞を逃さず追跡することができる。
次に、領域同士の比較を行う第2の手法について説明する。図5は対象物追跡処理に領域同士の照合を用いる第2の手法の概要を示す概念図である。図5でも、図3と同様、フレームF(1)〜F(3)までの連続する3フレームにおける追跡処理を示している。図5において、上段、中段、下段に示す星型は、特定された対象物を例示している。また、上段、中断、下段はいずれも多値画像を示している。第2の手法の場合、S2において、対象物よりもやや小さめの対象物領域を設定する。この対象物領域は、上述のように、特定された対象物のx座標最大値、x座標最小値、y座標最大値、y座標最小値で構成される矩形よりも一回り小さい矩形領域として設定する。この小さくする割合は、矩形形状の対象物領域内に占める真の対象物領域の割合により適宜変更する必要があるが、対象物が細胞のような楕円形状の場合、面積的に50%程度になるよう縮小する。この対象物領域は、図5の上段フレームF(1)に示すように、星型の対象物より小さめの矩形領域として設定される。
次に、S4の詳細について説明する。図6は、第2の手法における対象物追跡処理の詳細を示すフローチャートである。まず、追跡処理手段43が、S1で定義された追跡フレームの2番目以降のフレームであるフレームF(i)を読み込む(S11)。続いて、フレームF(i)上において、直前のフレームF(i−1)の対象物領域R(i−1)に内容が類似する領域を特定する(S12)。具体的には、直前のフレームF(i−1)における対象物領域R(i−1)と同サイズの領域を比較領域としてフレームF(i)上に設定する。この比較領域は、対象物領域R(i−1)の中心位置(x,y)を基準にXY座標を上下左右に所定の範囲(x+X,y+Y)に渡って移動させて複数設定する。そして、フレームF(i)上の各比較領域について、F(i−1)における対象物領域R(i−1)と各画素単位で差分をとり、差分の総和d(X,Y)が最も小さいフレームF(i)上の位置を特定する。差分の総和d(X,Y)は、以下の〔数式2〕に従って算出される。なお、元画像がカラー画像である場合には、RGB別に実行し、総和をとる。
〔数式2〕
d(X,Y)=Σx,y∈R(i-1) |V(i,x+X,y+Y)−V(i−1,x,y)|
上記〔数式2〕において、X,Yを変化させることにより、フレームF(i)上の比較領域を(+X,+Y)だけ移動させた状態の差分総和の算出が行われることになる(X,Yは正負の値をもつ整数値)。続いて、フレームF(i)における対象物領域R(i)の特定を行う(S13)。具体的には、上記差分総和d(X,Y)の値が最小となる(Xp,Yp)を、フレームF(i)上の対象物中心位置(Xp,Yp)とし、対象物中心座標テーブルに出力する。(Xp,Yp)を中心とした所定サイズの領域がフレームF(i)の対象物領域R(i)となる。次にフレームF(i)が最終フレームであるかどうかを判定し(S14)、最終フレームでなければ、次のフレームに進む(S15)。
次のフレームF(i+1)についても、フレームF(i)の場合と同様に、S13で特定されたフレームF(i)の対象物領域Riを用いて、フレームF(i+1)の対象物領域R(i+1)の特定を行う(S12、S13)。同様にして、図2のS3において定義された追跡フレーム群の範囲の全てのフレームに対して処理を行い、最終フレームを終えたら(S15)、追跡処理を終了する。
領域の照合を利用する第2の手法では、前フレームF(i−1)の対象物領域R(i−1)と比較する次フレームF(i)の比較領域を、対象物領域R(i−1)の中心位置(x,y)を基準に(x+X,y+Y)座標が所定の範囲に収まるように設定する。しかしながら、連続するフレーム間において、対象物領域の位置がこの事前に設定された所定の範囲を逸脱して大きく変化することもありえる。その場合は、前記所定の範囲を大きく設定し直せば当該フレームF(i)では解消することもあるが、逆に隣接する他の対象物が再設定された所定の範囲に含まれる可能性も増大し、後続フレームにおいて、誤って他の対象物を追跡してしまう問題が生じやすくなる。そこで、本実施形態では、このような問題が生じる場合、図2のS1における追跡フレーム群の設定をやり直すようにしている。即ち、F(i)以降は新たな追跡フレーム群に設定し直し、当該追跡フレーム群における追跡処理はF(i−1)の段階で中断する。このようにして、第1の手法と同様、他の細胞が近づいてきたとしても、誤ってそちらを検出することなく、対象物である細胞を逃さず追跡することができる。なお、所定の範囲としては、最大でも対象物領域Rの1/2程度にしておくことが望ましい。
第1の手法、第2の手法のいずれかを用いて追跡処理が終了したら、次に、軌跡描画手段44が、対象物の移動軌跡の描画処理を行う。図7は、移動軌跡の描画処理の概要を示すフローチャートである。まず、軌跡描画手段44が、対象物中心座標テーブルの読込みを行う(S31)。この対象物中心座標テーブルは、第1の手法ではS24、第2の手法ではS13において対象物領域の中心点が記録されたものである。
次に、軌跡描画手段44が、元の動画ファイルよりフレームF(i)を読み込む(S32)。続いて、対象物中心座標テーブルを参照し、先頭フレームからフレームF(i)までの中心座標を折れ線形式で結び、先頭フレームからフレームF(i)までの移動軌跡としてフレームF(i)上に上書き描画する(S33)。次に、フレームF(i)での対象物の座標値位置に、対象物の存在を示す対象物マークを上書き描画する(S34)。そして、移動軌跡、対象物マークが上書きされたフレームF(i)を出力動画ファイルに出力する(S35)。次にフレームF(i)が最終フレームであるかどうかを判定し(S36)、最終フレームでなければ、次のフレームに進む(S37)。
S31〜S35の処理を繰り返し実行することにより、各フレームF(i)には、先頭フレームからフレームF(i)までの移動軌跡、およびフレームF(i)における対象物の存在位置を示す対象物マークが示されることになる。描画処理が行われた追跡フレーム範囲内の最終フレームの様子を図8に示す。図8においては、折れ線形式の移動軌跡、対象物マークのみを示しており、説明の便宜上、最終フレームの画像自体は省略してある。図8の例では、移動軌跡の左下端が先頭フレームにおける対象物位置を示しており、右上端の矢印が最終フレームにおける対象物位置を示している。
ここで、対象物マーク発生の詳細について説明する。まず、最終フレームにおける対象物位置より互いに180度反対の2方向に延ばした直線と対象領域を構成する画素とが最も対象物位置より離れた位置で交差する直線方向を長軸とする。さらに、長軸に対して直交し、対象物位置より互いに180度反対の2方向に延ばした直線と対象領域を構成する画素とが最も重心座標より離れた位置で交差する直線方向を短軸とする。このようにして求められた長軸および短軸を利用し、この長軸と短軸で構成される矩形・楕円・菱形のいずれかの幾何学図形を対象物マークとして発生させる。図8の例は、菱形を発生させたものである。
描画処理を終えたら、軌跡描画手段44は、移動軌跡分布を元に偏向角を算出する。図9は、偏向角算出の説明図である。図9において、移動軌跡と対象物マークは図8に示したものと同一である。演算処理部40は、移動軌跡の先頭フレームの対象物位置(Xs,Ys)、最終フレームの対象物位置(Xe,Ye)を用いて、以下の〔数式3〕に従った処理を実行し、偏向角度を算出する。
〔数式3〕
偏向角度=tan-1{(Ye−Ys)/(Xe−Xs)}
軌跡描画手段44は、算出された偏向角度を画像表示手段20に表示出力する。これにより、利用者は、対象物の移動軌跡の偏向角度を知ることができる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、処理対象として顕微鏡画像をもとにした動画データを用い、細胞の動きを追跡するようにしたが、例えば、航空写真画像や地上監視カメラにより撮影された画像をもとにした動画データを用い、自動車等を追跡するようにしても良い。
10・・・動画データ記憶手段
20・・・画像表示手段
30・・・入力指示手段
40・・・演算処理部
41・・・追跡フレーム設定手段
42・・・対象物特定手段
43・・・追跡処理手段
44・・・軌跡描画手段

Claims (3)

  1. 複数のフレームで構成される動画ファイルに対して、対象物を追跡する複数のフレームで構成される追跡フレーム群を設定する追跡フレーム群設定手段と、
    前記追跡フレーム群の先頭フレームF(0)内の対象物を特定し、当該対象物の位置を特定する対象物中心座標を前記先頭フレームF(0)上で設定するとともに、前記対象物の存在する領域を示す対象物領域R(0)を設定する対象物特定手段と、
    前記追跡フレーム中の各フレームF(i)において、先行フレームF(i−1)の対象物領域R(i−1)と同サイズの比較領域を、前記対象物領域R(i−1)の中心位置を基準に上下左右に所定の範囲に渡って(+X,+Y)だけ移動させて複数設定し、各比較領域について前記対象物領域R(i−1)との対応する画素同士の差分の総和d(X,Y)を算出し、当該総和d(X,Y)が最小となる比較領域を、前記フレームF(i)の対象物領域R(i)として設定するとともに、当該対象物領域R(i)の中心に位置する画素に対象物中心座標を設定する追跡処理手段と、
    前記各フレームF(i)において、前記対象物中心座標が設定された画素を含む所定の範囲に幾何学形状の対象物マークを上書きする軌跡描画手段と、を有し、
    前記追跡処理手段の処理により前記総和d(X,Y)が最小となる比較領域を特定できなかった場合、前記追跡フレーム群設定手段が前記追跡フレーム群を再設定することを特徴とする対象物追跡装置。
  2. 請求項1において、
    前記軌跡描画手段は、さらに、先行するフレームF(1)〜F(i−1)の各対象物マークが設定された画素と同位置の画素を線分で結んで上書きすることにより、軌跡が記録された各フレームF(i)を作成するものであることを特徴とする対象物追跡装置。
  3. 請求項1または請求項に記載の対象物追跡装置として、コンピュータを機能させるためのプログラム。
JP2009064497A 2009-03-17 2009-03-17 対象物追跡装置 Active JP5339065B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009064497A JP5339065B2 (ja) 2009-03-17 2009-03-17 対象物追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009064497A JP5339065B2 (ja) 2009-03-17 2009-03-17 対象物追跡装置

Publications (2)

Publication Number Publication Date
JP2010218232A JP2010218232A (ja) 2010-09-30
JP5339065B2 true JP5339065B2 (ja) 2013-11-13

Family

ID=42977016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009064497A Active JP5339065B2 (ja) 2009-03-17 2009-03-17 対象物追跡装置

Country Status (1)

Country Link
JP (1) JP5339065B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803442B2 (ja) * 2011-08-31 2015-11-04 株式会社ニコン 顕微鏡制御装置、顕微鏡装置、画像処理装置およびプログラム
KR101929778B1 (ko) * 2012-04-02 2018-12-17 엘지전자 주식회사 이동 단말기의 출력 화면 분석 장치 및 방법, 이를 위한 기록 매체
KR101384843B1 (ko) * 2012-09-07 2014-05-07 주식회사 나노엔텍 현미경 및 그 제어방법
WO2014080932A1 (ja) 2012-11-26 2014-05-30 国立大学法人大阪大学 光学顕微鏡、および、光学顕微鏡のオートフォーカス装置
US10897593B2 (en) 2016-08-30 2021-01-19 International Business Machines Corporation Multiple tape video data splitter
JP6440043B1 (ja) 2017-06-27 2018-12-19 株式会社マーケットヴィジョン 商品特定システム
KR102035245B1 (ko) * 2018-07-23 2019-11-08 아주대학교산학협력단 타겟 마커 위치 추정 장치 및 방법
JP6737446B2 (ja) * 2018-08-02 2020-08-12 株式会社マーケットヴィジョン 商品特定システム
GB2616632A (en) * 2022-03-15 2023-09-20 Mercedes Benz Group Ag A method for tracking an object in the surroundings by an assistance system as well as a corresponding assistance system
CN116309687B (zh) * 2023-05-26 2023-08-04 深圳世国科技股份有限公司 基于人工智能的摄像机实时跟踪定位方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06231252A (ja) * 1993-02-04 1994-08-19 Toshiba Corp 監視画像の移動物体追跡方法
JP3411469B2 (ja) * 1997-04-14 2003-06-03 日本電信電話株式会社 フレーム多重画像作成方法
JPH1196376A (ja) * 1997-09-24 1999-04-09 Oki Electric Ind Co Ltd 移動物体追跡装置及び方法
JP2002063577A (ja) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像解析システム,画像解析方法および画像解析プログラム記録媒体
JP3836814B2 (ja) * 2003-05-20 2006-10-25 株式会社東芝 画像処理方法、画像処理装置、画像処理プログラム
JP2006113462A (ja) * 2004-10-18 2006-04-27 Tohoku Univ 単粒子三次元位置追跡方法
JP4390684B2 (ja) * 2004-11-08 2009-12-24 セイコープレシジョン株式会社 ターゲット監視装置

Also Published As

Publication number Publication date
JP2010218232A (ja) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5339065B2 (ja) 対象物追跡装置
Deng et al. Automatic indoor construction process monitoring for tiles based on BIM and computer vision
TWI419081B (zh) 提供擴增實境的標籤追蹤方法、系統與電腦程式產品
CN104424482B (zh) 图像处理设备和图像处理方法
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5699788B2 (ja) スクリーン領域検知方法及びシステム
JP5152231B2 (ja) 画像処理方法および画像処理装置
JP5943084B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013065304A (ja) 高速障害物検出
CN102096471B (zh) 一种基于机器视觉的人机交互方法
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018147095A (ja) カメラ位置姿勢推定装置、方法およびプログラム
CN104217459B (zh) 一种球面特征提取方法
KR20120029737A (ko) 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치
CN109711457A (zh) 一种基于改进hu不变矩的快速图像匹配方法及其应用
US20150104068A1 (en) System and method for locating fiducials with known shape
US11216905B2 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
KR20230030501A (ko) 기하학적 패턴 매칭 방법 및 이러한 방법을 수행하는 장치
JP2018092354A (ja) 物体検出装置および物体検出方法
JP6229554B2 (ja) 検出装置および検出方法
WO2024012463A1 (zh) 一种定位方法及装置
US20230224576A1 (en) System for generating a three-dimensional scene of a physical environment
CN112150541A (zh) 一种多led晶片定位算法
JP5365408B2 (ja) 移動体認識装置、移動体認識方法及びプログラム
CN114359314B (zh) 面向仿人钢琴演奏机器人的实时视觉琴键检测与定位方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130723

R150 Certificate of patent or registration of utility model

Ref document number: 5339065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150