JP7121708B2 - オブジェクト抽出装置、方法およびプログラム - Google Patents

オブジェクト抽出装置、方法およびプログラム Download PDF

Info

Publication number
JP7121708B2
JP7121708B2 JP2019149690A JP2019149690A JP7121708B2 JP 7121708 B2 JP7121708 B2 JP 7121708B2 JP 2019149690 A JP2019149690 A JP 2019149690A JP 2019149690 A JP2019149690 A JP 2019149690A JP 7121708 B2 JP7121708 B2 JP 7121708B2
Authority
JP
Japan
Prior art keywords
background
update rate
current frame
difference threshold
displacement information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149690A
Other languages
English (en)
Other versions
JP2021033407A (ja
Inventor
良亮 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019149690A priority Critical patent/JP7121708B2/ja
Publication of JP2021033407A publication Critical patent/JP2021033407A/ja
Application granted granted Critical
Publication of JP7121708B2 publication Critical patent/JP7121708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクト抽出装置、方法およびプログラムに係り、特に、映像の各フレームから、過去フレームを統計的に処理した背景モデルを背景とする背景差分計算によりオブジェクトを抽出するオブジェクト抽出装置、方法およびプログラムに関する。
主に画像中からの移動物体の検出や、非特許文献1に示されるような自由視点映像の制作などを目的として、前景領域と背景領域とを分離する手法が数多く提案されている。その中で、事前に撮影した前景の存在しない背景画像などをベースに背景の特徴をモデル化し、背景モデルと入力画像との差分が大きい領域を前景として抽出するアプローチは背景差分法と呼ばれる。
背景差分法の例として、非特許文献2には、複数のガウス分布を混合させた混合ガウス分布を用いて背景をモデル化する手法が開示されている。非特許文献2は、混合ガウス分布によってモデル化された背景に対し、一定の差分以上の画素を前景として抽出することで前景と背景との分離を実現する。
非特許文献2で使用される背景モデルは、フレームを経るごとに徐々に更新される機構を備えている。これにより、背景部分に変化が生じた場合にも、徐々に背景の特徴を学習することで、その状況に応じた背景モデルを保持することが可能になる。
非特許文献3では、背景差分を実施する際に設定する前景抽出のための閾値を、人物の追跡によって得られる人物位置に応じて画素ごとに適応的に変化させることで、背景差分の精度を高める手法が開示されている。非特許文献3では、このような人物の認識や追跡情報に基づくパラメータ変更により、非特許文献2が開示する背景差分を用いた技術の精度をさらに向上させることが期待できる。
特許文献1は、物体認識の結果に基づいて、背景差分法を実施する際の閾値および更新率の双方を画素ごとに動的に変更することで、高精度な前景抽出を実現する発明に関するものである。
特許文献1では、前景として抽出したい物体が存在する可能性が高い領域の背景差分閾値を、物体認識の結果に基づいて低くすることで、抽出対象物体が前景として抽出されやすくできる。加えて、物体認識の結果に基づいて、物体が存在する画素の背景モデルの更新率を低くすることで、静止している物体に欠けが生じることを防止できる。
特願2019-009705号
H. Sankoh, S. Naito, K. Nonaka, H. Sabirin, J. Chen, "Robust Billboard-based, Free-viewpoint Video Synthesis Algorithm to Overcome Occlusions under Challenging Outdoor Sport Scenes", Proceedings of the 26th ACM international conference on Multimedia, pp. 1724-1732(2018) C. Stauffer and W. E. L. Grimson, "Adaptive background mixture models for real-time tracking," 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 246-252 Vol. 2 (1999). 寺林賢司,梅田和昇,モロアレッサンドロ,"人物追跡情報を用いた背景差分のリアルタイム適応閾値処理" ,電気学会一般産業研究会資料, GID-09-17, pp.89-90(2009). Gunnar Farneback, "Two-frame motion estimation based on polynomial expansion." In Proceedings of the 13th Scandinavian conference on Image analysis (SCIA'03), pp.363-370, 2003. J. F. Henriques, R. Caseiro, P. Martins and J. Batista, "High-Speed Tracking with Kernelized Correlation Filters," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 37, no. 3, pp. 583-596, 2015. K. He, G. Gkioxari, P. Dollar and R. Girshick, "Mask R-CNN," 2017 IEEE International Conference on Computer Vision (ICCV), 2017, pp. 2980-2988 (2017). J. Redmon and A. Farhadi,"YOLO9000: Better, Faster, Stronger," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 6517-6525 (2017).
本発明の発明者等は、非特許文献2,3及び特許文献1に開示されているような背景差分法ベースの手法で抽出したシルエットを用い、非特許文献1に代表されるような自由視点映像の制作を行って考察を行った。
その結果、非特許文献1に開示されている自由視点映像技術の制作工程では、背景差分法を用いてシルエット画像を作成し、その後、各シルエット画像をベースに3次元空間上の積集合を計算することで視体積を生成し、対象物体の3Dモデル化を行うが、このときのシルエット抽出の精度が自由視点映像の品質に大きく影響を及ぼすことを確認した。
非特許文献2に開示されている手法は、背景を統計的にモデル化し、徐々に更新を行うことで、緩やかな背景の変化や規則的な背景部分の変化に関してロバストにシルエット抽出を行えるという強みがあった。しかしながら、背景が複雑かつ急峻に変化するようなシーンには適用が難しかった。
背景が複雑なシーンの例としては、スポーツの試合において選手やボールの抽出を行いたい場合に、選手の背後に頻繁に切り替わりが発生する広告表示用の液晶ディスプレイが配置されているシーンや、悪天候で背景の状況が常に大きく変化し続けるようなシーンが挙げられる。
このようなシーンでは、背景が急激に変化することに加え、その背景の変化に規則性がないことも多いことから、背景を誤って前景として抽出してしまう可能性が高くなる。これらの抽出困難なシーンにおいて抽出を行うためには、非特許文献2の手法では精度的に不十分である。
このような技術課題を解決するために、非特許文献3や特許文献1のように、人物追跡や人物認識を行い、その結果に基づいて、背景差分法の閾値や更新率を変更する手法が提案されていた。しかしながら、非特許文献3では、追跡で得られる矩形に基づいて、その内部の閾値を小さくし、抽出されやすくする機構しか開示されていない。したがって、対象物体の抽出をしやすくはなるものの、閾値を下げた領域ではノイズなどが多く発生しやすくなるという新たな課題が生じ得る。
一方、特許文献1では、人物認識の結果に基づいて、閾値のみならず背景モデルの更新率にも変化を加えることで精度の高い抽出を行う。この閾値および更新率の調整は、あくまで毎フレームの人物認識の結果のみに基づいて行われ、特に複数フレームに渡って人物が連続で認識されているような領域の閾値は低く設定される。
しかしながら、長く静止していた人物が突然動き出すような状況においては、物体が長く静止していた画素位置の閾値が、しばらくの間低く設定され続けるため、本領域でノイズが現れやすくなる。加えて、今まで物体が認識されていなかった領域、すなわち閾値の高い領域に物体が移動する場合には欠けが発生しやすくなるという問題があった。このように、特許文献1は対象物体の不規則な移動に関して、ノイズや欠けが発生しやすいという課題を有していた。
本発明の目的は、上記の技術課題を解決し、オブジェクトが不規則に移動、静止するなど、その動きが激しい場合でもロバストなオブジェクト抽出を可能にするオブジェクト抽出装置、方法およびプログラムを提供することにある。
上記の目的を達成するために、本発明は、映像の各フレームから、過去フレームを統計的に処理した背景モデルを背景とする背景差分計算によりオブジェクトを抽出するオブジェクト抽出装置において、以下の構成を具備した点に特徴がある。
(1) 各フレームからオブジェクト領域を検出する手段(102)と、フレーム間でのオブジェクト領域の変位情報を取得する手段(103)と、前フレームに用いた背景差分閾値を前記変位情報に基づいて現フレームの対応する画素領域に移動して現フレームに用いる背景差分閾値を決定する手段(104a)と、前記背景モデルと現フレームとの差分を前記更新した背景差分閾値と比較する背景差分計算により現フレームの各画素を背景および前景のいずれかに識別する手段(105)と、現フレームに基づいて前記背景モデルを更新する手段(106)とを具備した。
(2) 背景モデルを更新する手段(106)が背景モデルに現フレームを所定の更新率で反映させて更新する際の当該更新率を前記変位情報に基づいて決定する更新率決定手段(104b)を更に具備した。
(3) 更新率決定手段(104b)は、前記変位情報に基づいて、変位速度が大きい画素ほど更新率を高く調整するようにした。
(4) 更新率決定手段(104b)は、現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素の更新率を低く調整するようにした。
(5) 背景モデルを更新する手段(106)は、前記識別する手段(105)による識別の結果に基づいて、前景に識別された画素は背景に識別された画素よりも低い更新率で更新するようにした。
(6) 背景差分閾値を決定する手段は、前記変位情報に基づいて決定した背景差分閾値を、現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素について低く調整するようにした。
(7) 前記変位情報に基づいて背景差分閾値が移動された移動元の各画素の更新率を初期化する手段をさらに具備した。
(8) 前記変位情報に基づいて背景差分閾値が移動された移動元の各画素の背景差分閾値を初期化する手段をさらに具備した。
(1) フレーム間でのオブジェクト領域の変位情報に基づいて、前フレームに用いた背景差分閾値を現フレームの対応する画素領域に移動して現フレームに用いる背景差分閾値を決定するので、オブジェクトが不規則に移動、静止するなど、その動きが激しい場合でもロバストなオブジェクト抽出が可能になる。
(2) 背景モデルを更新する手段が背景モデルに現フレームを所定の更新率で反映させて更新する際の当該更新率を前記変位情報に基づいて決定するので、オブジェクトの動きに応じて背景モデルを適応的に最適化できるようになる。
(3) 更新率決定手段は、変位速度が大きい画素ほど更新率を高く調整するので、長時間静止するオブジェクトについては更新処理の繰り返しによる欠けなどが発生しにくくなる一方、高速に移動するオブジェクトには高い更新率が割り当てられるので、輪郭を綺麗に削りやすくなる。
(4) 更新率決定手段は、オブジェクトが検出された画素の更新率を低く調整するので、静止しているオブジェクトの識別結果に欠けが生じることを防止できるようになる。
(5) 背景モデルを更新する手段は、前景に識別された画素は背景に識別された画素よりも低い更新率で更新するので、静止しているオブジェクトの識別結果に欠けが生じることを防止できるようになる。
(6) 背景差分閾値を決定する手段は、変位情報に基づいて決定した背景差分閾値を、オブジェクトが検出された画素について低く調整するので、オブジェクトの検出された領域が背景差分計算により前景に識別しやすくなる。
(7) 変位情報に基づいて背景差分閾値が移動された移動元の各画素の更新率を初期化する手段を具備したので、更新率が低い値に維持され続けることを原因とするノイズの発生を防止できるようになる。
(8) 変位情報に基づいて背景差分閾値が移動された移動元の各画素の背景差部閾値を初期化する手段を具備したので、背景差分閾値が低い値に維持され続けることを原因とするノイズの発生を防止できるようになる。
本発明の一実施形態に係るオブジェクト抽出装置の主要部の構成を示した機能ブロック図である。 オブジェクト検出の一例を示した図である。 オブジェクト追跡の一例を示した図である。 背景差分閾値の決定方法を示した図である。 背景差分閾値の移動元の画素に、移動させた背景差分閾値が残ることでノイズが発生する例を示した図である。 背景差分閾値の移動後、移動元の背景差分閾値を初期化する例を示した図である。 背景差分計算に基づく背景/前景の識別結果の表示例を示した図である。 本発明の一実施形態の動作を示したフローチャートである。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト抽出装置1の主要部の構成を示した機能ブロック図である。本実施形態では、映像の各フレームから背景差分によりオブジェクトを抽出する際に、背景として過去のフレーム画像を統計的に処理した背景モデルが用いられる。
このようなオブジェクト抽出装置1は、CPU、メモリ、インタフェースおよびこれらを接続するバス等を備えた汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはプログラム化した専用機や単能機としても構成できる。
フレーム画像取得部101は、カメラ2が撮影した映像からフレーム画像Iを取得し、オブジェクト検出部102、背景差分計算部105および背景モデル更新部106へ提供する。このフレーム画像Iは、カメラ等で撮影した映像をハードディスクなどに保存しておき、この保存された画像を入力として処理を行ってもよい。オブジェクト検出部102は、図2に一例を示したように、各フレームからオブジェクトを検出し、現フレームINにおける検出結果O (x, y)をオブジェクト分布LN (x, y)として出力する。ここで、Nはフレーム番号を示し、(x, y)はフレーム内での各画素の位置を示している。オブジェクト分布LN (x, y)では、オブジェクトが検出された画素には高い値、オブジェクトが検出されない画素には低い値が、0~1の範囲でそれぞれ登録される。
本実施形態では、検出対象のオブジェクトを様々な環境下で撮影したカメラ映像の各フレームから画像特徴量を抽出し、深層学習の結果を法則化した学習モデルを用いて各オブジェクトを検出する。
例えば、カメラ映像が球技を撮影した映像であれば、ボールや選手がオブジェクトとして検出される。このようなオブジェクト検出には、非特許文献6に開示されるように、オブジェクトの形状まで含めて抽出できる深層学習ベースの抽出手法や、非特許文献7に開示されるように、オブジェクトの矩形領域を抽出できる手法を適用できる。あるいは、HOG (Histograms of Oriented Gradients) 特徴量などの画像特徴量に基づいて各オブジェクトを抽出しても良い。
なお、オブジェクト検出部102が各オブジェクトのクラスを識別できるように構成されていれば、識別クラスの情報も含めて出力するようにしても良い。識別クラスの情報とは、オブジェクトが、例えば"人物"なのか"ボール"なのかを識別するための情報である。
また、オブジェクト検出部102が検出結果の確からしさを示す尤度を算出できるように構成されていれば、この尤度をオブジェクト検出結果O (x, y)に反映させ、後述する背景差分パラメータ決定部104におけるパラメータ決定に利用してもよい。
さらに、オブジェクト分布LN (x, y)は、次式(1)に示すように、前フレームIN-1のオブジェクト分布LN -1と現フレームINのオブジェクト検出結果O (x, y)とを所定の割合mで加算した重み付け和として求めても良い。これにより、1つのフレームで物体認識に誤りが生じた場合でも、その影響が他のフレームに与える影響を軽減することができる。
Figure 0007121708000001
変位情報取得部103は、現フレームINに対するオブジェクト検出の結果と前フレームIN-1に対するオブジェクト検出の結果とを比較し、フレーム間での各オブジェクトの変位方向および変位量を変位情報として取得する。このとき、変位情報を非特許文献4に開示されたオプティカルフローの計算により取得するのであれば、一般的にオブジェクトの事前検出が不要なので、現フレームINおよび前フレームIN-1から変位情報を取得することができる。なお、オプティカルフローを用いれば変位情報を比較的高速かつ簡易に算出できるものの確度は十分とは言えない。
その他にも、図3に示したように、検出したオブジェクトを追跡することで変位情報を得るアプローチがある。この場合、オブジェクト検出部102が検出したオブジェクト領域をスタートとして、非特許文献5に開示される物体追跡技術を用いてフレーム間でオブジェクトの位置を追跡していく。このとき、フレームごとにオブジェクト検出も並行して実施し、オブジェクト検出の結果が追跡結果と重なる場合には、検出結果を新しい追跡のスタートとして繰り返し追跡を行うようなアプローチを採用してもよい。これらのアプローチに基づき、変位情報取得部103はフレーム間での各画素の変位方向と変位量とを取得できる。
背景差分パラメータ決定部104は、背景差分閾値決定部104a、更新率決定部104bおよび初期化部104cを含み、現フレームINに背景差分計算を適用する際の閾値(背景差分閾値)や背景(背景モデル)の更新率といった背景差分パラメータを決定する。
前記背景差分閾値決定部104aは、図4に示したように、前フレームIN-1のオブジェクト領域に適用された背景差分閾値を前記変位情報に基づいて現フレームINの対応する領域の各画素に移動させることで、現フレームINに適用する背景差分閾値を決定する。たとえば、前フレームIN-1から現フレームINへの変位情報を変位ベクトル(Δx, Δy)、前フレームIN-1に適用した背景差分閾値をTN-1(x, y)で表現すれば、現フレームINに適用する変位ベースの閾値TN_MOV(x, y)は次式(2)で求められる。
Figure 0007121708000002
なお、前フレームIN-1では独立していた2つのオブジェクトの画素が現フレームINでは同じ画素に移動してくるようなケースでは、同じ画素に2箇所から閾値が移動してくることが考えられる。このようなケースでは、各閾値の平均値あるいは小さい方の値を優先的に選択するなどの手段を採って変位ベースの閾値TN_MOV(x, y)を得る。
また、デプス推定などに基づいて、重なった複数のオブジェクトの前後関係を判定することができる場合には、前面の移動物体の閾値を優先的に反映させるような機構を具備していてもよい。このときに、前フレームIN-1からの移動先に該当しない画素に関しては、次式(3)に基づいて前フレームIN-1の対応する画素の閾値TN-1_(x, y)をそのまま採用することができる。
Figure 0007121708000003
前記背景差分閾値決定部104aは更に、前記移動ベースで背景差分閾値TN_MOV(x, y)を計算した後、オブジェクト検出部102が出力するオブジェクト検出の結果LN (x, y)をTN_MOV(x, y)に反映させるための調整値TC (x, y)を次式(4)により計算する。Tmaxはフレーム間での閾値の変化量の最大値を示す定数であり、予め設定されている。
Figure 0007121708000004
すなわち、オブジェクト分布LN (x, y)によりオブジェクトが存在するとされた画素が前景と判定されやすくするためには、その閾値を下げることが望ましい。そこで、本実施形態ではオブジェクトが存在する画素では負の調整値TC (x, y)が得られ、オブジェクトが存在しない画素では正の調整値TC (x, y)が得られるようにしている。
前記背景差分閾値決定部104aは、変位ベースの閾値TN_MOV(x, y)および調整値TC (x, y)を次式(5)に適用することにより、現フレームINに適用する最終的な背景差分閾値TN(x, y)を求める。
Figure 0007121708000005
このように、本実施形態ではオブジェクトが存在する可能性が高い領域に低い閾値が設定され、オブジェクトの存在可能性が低い領域には高い閾値が設定されるので、オブジェクトが抽出され易くなる効果が生まれる。
更新率決定部104bは、後述する背景モデル更新部106が、前フレームまで(~IN-1)の各フレームを統計的に処理してモデル化した背景モデルに現フレームINの画素情報を反映して現フレームまで(~IN)の背景モデルに更新する際の当該反映の割合(更新率UN (x, y))を前記変位情報に基づいて画素ごとに決定する。
本実施形態では、更新率UN (x, y)がフレーム間で大幅に変化することを避けるため、前フレームIN-1に対する背景差分計算で用いた背景モデルを更新した際の更新率UN-1(x, y)と補正値UC(x, y)とに基づいて、現フレームINに対する背景差分計算で用いる背景モデルを更新するための更新率UN (x, y)を次式(6)で求める。
Figure 0007121708000006
ただし、更新率UN (x, y)は0~1の値の範囲を持つことから、0未満になる場合には0に、1より大きくなる場合には1になるように値を修正する。補正値UC(x, y)は、現フレームINでの各画素の更新率の変化量であり、次式(7)で求められる。
Figure 0007121708000007
ここで、Umaxはフレーム間での更新率の変化量の最大値を示す定数であり、予め手動で設定される。MN (x, y)は、フレーム間での各画素の変位量すなわち変位速度の指標値であり、変位速度が大きい画素ほど大きい値が入力されるように設計され、0~1の範囲で正規化した値を採る。これにより、MN(x, y)が1のときにUC (x, y)はUmaxとなり、MN (x, y)が0のときにUC (x, y)は-Umaxとなることから、MN(x, y)に応じて更新率が最大でUmaxだけ変化することになる。
このように、本実施形態では変位速度が大きい画素には大きい更新率が割り当てられ、変位速度が小さい画素には小さい更新率が割り当てられるため、長時間静止するオブジェクトに関し、更新処理の繰り返しによる欠けなどが発生しにくくなる。また、高速に移動するオブジェクトには高い更新率が割り当てられるので、輪郭を綺麗に削りやすくなる。
また、追跡中に別の物体が同じ位置に重なってくるようなケースでは、MN (x, y)が2つ得られるケースも考えられるが、この場合は平均や最大となる量MN (x, y)を採用することができる。また、閾値の決定と同様に、デプス推定などに基づいて、重なる複数の物体の前後関係を判定することができる場合には、前面の移動物体のMN (x, y)を優先的に反映させるような機構を設けても良い。
さらに、閾値と同様に上式(7)にもオブジェクト分布LN (x, y)を反映させ、物体が存在する場合には更新率が低くなるような制御を追加しても良い。物体が存在する画素の更新率を低くすることで、静止物体の欠けなどを防止できる効果が期待できる。
なお、オブジェクト検出部102が各オブジェクトのクラスを識別できるのであれば、識別クラスごとに前記最大値Umax、Tmaxを設定してもよい。これにより、例えば人物の肌の色が床の色と酷似しており欠けやすく、ボールは背景とかけ離れた色をしているため欠けにくいという状況下で、人物クラスのTmax(Tmax_person)を大きく、ボールクラスのTmax(Tmax_ball)を小さく設計することで、人物クラスの方が認識されたケースの方が閾値の変動量が大きくなり、人物が存在する可能性が高いと思われる領域では、抽出がされやすくなることなどの効果が期待できる。
さらに、前記更新率UN (x, y)および閾値TN(x, y)の決定の際に、矩形ベースの追跡方法による変位ベクトルの取得と、オプティカルフローなどから得られる画素ベースの変位ベクトルを組み合わせるアプローチを用いてもよい。
例えば、矩形ベースの追跡を実施している際に、当該矩形の中の画素にのみ、オプティカルフローを用いた変位ベクトルの取得を実施し、矩形内部にて、画素ごとに異なる閾値や更新率を得ることが考えられる。矩形ベースの追跡では一矩形につき一つの変位ベクトルしか得ることができないが、矩形内部で画素ベースの変位ベクトルを計算し、利用することによって、画素ごとに適応的に閾値と更新率を変化させることができる。これは、例えば上式(7)で利用される、各画素のMN (x, y)を矩形のMN1 (x, y)と画素ベースのMN2 (x, y)との重み付き和などを計算することで実現される。
このような処理を加えることで、矩形そのものは停止しているものの、矩形の内部で物体に動きがあるような場合に、適切なパラメータを設定できる可能性が高くなる。また、矩形内部だけで画素ベースの変位ベクトルの取得を行うため、画像全体で画素ベースの変位ベクトルの取得を行う場合と比べて高速に計算することが可能となる。
さらに、オブジェクト追跡領域ではその外側近傍の領域ほど背景/前景の識別結果が変化しやすいことから、矩形ベースの追跡であれば、矩形内の中央部に比べて外側の更新率を高目に微調整するなどの処理を加えても良い。
初期化部104cは、閾値TN-1(x, y)を変位ベクトルに基づいて移動されると、移動元の各画素(x-Δx, y-Δy)の閾値おおよび更新率を初期化する。これは、図5に一例を示したように、オブジェクトが移動していく場合に、移動元の領域でノイズが発生しやすくなることを抑止するために行われる。
すなわち、移動元の閾値および更新率を放置すると、暫くの間、閾値は高く、更新率は低く維持されるため、このようなノイズが発生する場合がある。そこで、図6に示したように、本実施形態では移動元の閾値と更新率を初期化することで、ノイズの発生を抑制する効果が期待できる。
背景差分計算部105は、各画素が単一のガウスモデルでモデル化された背景モデルを背景として用い、フレーム画像取得部101が取得した現フレームINの各画素を背景差分により前景および背景のいずれかに識別する。
本実施形態では、後述する背景モデル更新部106から、前フレームIN-1までの背景モデルとして、画素ごとに時間軸上の平均μN-1(x, y)および標準偏差σN-1(x, y)を取得し、ガウス分布を用いた背景差分において次式(8)を満たす画素(x, y)を背景に識別する。
ここで、IN(x, y)は現フレームINの各画素の輝度値、zは標準偏差の何倍までを背景と判断するかを調節するパラメータであり、背景差分閾値TN(x, y)が大きいほど背景と判断される可能性が高くなる。
Figure 0007121708000008
なお、背景差分の判定に使う画像の色空間はグレースケールでも良いし、RGBやYUV等の色空間でも良いが、複数の色チャネルを持つ場合は、全てのチャネルを独立に処理し、全ての色が背景の条件を満たす画素が背景に識別されるようにすることが望ましい。
また、上式(8)では標準偏差の項と閾値の項とを分けているが、背景差分閾値TN(x, y)に応じて標準偏差項の定数値zを調節するような機能を備えていてもよい。
加えて、背景差分計算部105が計算結果として出力するマスクに対して何らかの後処理を実施しても良い。後処理とは、得られたマスクに対してフィルタ処理などを施すことによってマスクを洗練化する処理の総称であり、多くの背景差分アルゴリズムの中で、背景差分計算後に取り入れられている。
後処理の代表例としてはメディアンフィルタなどのフィルタ処理によるノイズ除去や、輪郭の膨張(dilation)と縮退(erosion)を繰り返すことで細かいノイズを除去する処理などが挙げられる。また、ユーザが指定したサイズより小さい前景領域は無条件で背景として扱うようなノイズ除去処理を実施しても良いし、前景に囲まれる背景領域のサイズが小さい場合には、前景領域として穴埋めるなどの処理を実施しても良い。
背景モデル更新部106は、現フレームに対する背景差分の計算結果に基づいて、背景として用いた背景モデルを次フレームIN+1用に更新する。本実施形態では、前フレームIN-1までの各画素の平均値μN-1(x, y)および標準偏差σN-1(x, y)が、現フレームINの画素情報および前記更新率決定部104bが決定した更新率UN(x, y)に基づいて更新される。すなわち、現フレームINの各画素の輝度値IN(x, y)を反映した各画素の平均μN(x, y)は次式(9)で計算される。
Figure 0007121708000009
さらに、現フレームの各画素の輝度値IN(x, y)を反映した各画素の標準偏差σN(x, y)は、次式(10),(11)で計算される。
Figure 0007121708000010
Figure 0007121708000011
なお、更新率UN(x, y)に関しては、背景差分計算部105による前景/背景の計算結果に基づいて、前景と判定された画素は背景と判定された画素よりも低い更新率で更新されるようにしても良い。一般に、背景の画素に対して高い更新率を、前景の画素に対して低い更新率を設定することで、前景と判定された領域が更新で欠けることを抑止できる効果が期待される。
また、背景モデルに関しては、実際にシルエット画像の抽出を試みる前に、事前に一定時間に渡り背景モデルを記録し、その背景モデルを利用して背景差分計算部での計算を実施するような機構を有していてもよい。
計算結果出力部107は、背景差分計算部105による背景/前景の計算結果を映像として出力する。出力形式は、例えば図7に示したように、各フレームを背景の画素領域でマスクして得られるカラー画像形式でも良いし、あるいは背景と前景とを識別できる2値のマスク画像形式でも良い。
図8は、本発明の一実施形態の動作を示したフローチャートであり、ステップS1では、フレーム画像取得部101によりカメラ映像から今回のフレーム画像(現フレームIN)が取得される。ステップS2では、オブジェクト検出部102により現フレームINからオブジェクト領域が検出される。ステップS3では、変位情報取得部103により、前フレームIN-1から検出したオブジェクト領域と現フレームINから検出したオブジェクト領域とに基づいてフレーム間でのオブジェクト領域の変位情報(Δx, Δy)が取得される。
ステップS4では、図4を参照して詳述したように、変位情報(Δx, Δy)および前フレームIN-1に適用した背景差分閾値TN-1(x, y)に基づいて変位ベース閾値TN_MOV(x, y)が計算される。ステップS5では、現フレームINに対するオブジェクト検出の結果に基づいて調整値TC(x, y)が計算される。ステップS6では、前記変位ベース閾値TN_MOV(x, y)および調整値TC(x, y)を上式(5)に適用することで、現フレームINに対する背景差分計算で用いる背景差分閾値TN(x, y)が決定される。
ステップS7では、図6を参照して詳述したように、前フレームIN-1に適用した背景差分閾値TN-1(x, y)を前記変位情報に基づいて移動した際の移動元の各画素(x-Δx, y-Δy)に設定されていた背景差分閾値および更新率が、前記初期化部104cにより初期化される。ステップS8では、上式(7)に基づいて更新率の補正値UC(x, y)が計算される。ステップS9では、補正値UC(x, y)および前フレームIN-1に適用した更新率UN-1(x, y)を上式(6)に適用することで、現フレームINに対する背景差分計算で用いる背景モデルを次フレームIN+1用に更新するための更新率UN(x, y)が決定される。
ステップS10では、前フレームIN-1までの各フレームの画素情報を統計的に処理してモデル化した背景モデル(各画素の平均値μN-1(x, y)および標準偏差σN-1(x, y))が取得される。ステップS11では、前記背景差分計算部105が、現フレームINの画素情報と前記取得した背景モデルとの差分を前記背景差分閾値TN(x, y)と比較する背景差分計算を実行することで現フレームINの各画素が背景および前景のいずれかに識別される。
ステップS12では、前記ステップS9で決定した更新率UN(x, y)が、現フレームINに対する背景差分計算の結果に基づいて、前景と判定された画素は背景と判定された画素よりも低い更新率で更新されるように補正される。ステップS13では、前フレームIN-1に対する背景差分計算で用いた背景モデル(平均値μN-1(x, y),標準偏差σN-1(x, y))、現フレームINの画素情報IN(x, y)および更新率UN(x, y)を上式(9),(10)に適用することで背景モデルが次フレームIN+1用に更新される。
ステップS14では、映像が終了したか否かが判断される。終了していなければステップS1へ戻り、次フレームIN+1に対して上記の各処理が繰り返される。
1...オブジェクト抽出装置,2...カメラ,101...フレーム画像取得部,102...オブジェクト検出部,103...変位情報取得部,104...背景差分パラメータ決定部,104a...背景差分閾値決定部,104b...更新率決定部,104c...初期化部,105...背景差分計算部,106...背景モデル更新部,107...計算結果出力部

Claims (15)

  1. 映像の各フレームから、過去フレームを統計的に処理した背景モデルを背景とする背景差分計算によりオブジェクトを抽出するオブジェクト抽出装置において、
    各フレームからオブジェクト領域を検出する手段と、
    フレーム間でのオブジェクト領域の変位情報を取得する手段と、
    前フレームに用いた背景差分閾値を前記変位情報に基づいて現フレームの対応する画素領域に移動して現フレームに用いる背景差分閾値を決定する手段と、
    前記背景モデルと現フレームとの差分を前記更新した背景差分閾値と比較する背景差分計算により現フレームの各画素を背景および前景のいずれかに識別する手段と、
    現フレームに基づいて前記背景モデルを更新する手段とを具備したことを特徴とするオブジェクト抽出装置。
  2. 前記背景モデルを更新する手段が背景モデルに現フレームを所定の更新率で反映させて更新する際の当該更新率を前記変位情報に基づいて決定する更新率決定手段を更に具備したことを特徴とする請求項1に記載のオブジェクト抽出装置。
  3. 前記更新率決定手段は、前記変位情報に基づいて、変位速度が大きい画素ほど更新率を高く調整することを特徴とする請求項2に記載のオブジェクト抽出装置。
  4. 前記更新率決定手段は、現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素の更新率を低く調整することを特徴とする請求項2または3に記載のオブジェクト抽出装置。
  5. 前記背景モデルを更新する手段は、前記識別する手段による識別の結果に基づいて、前景に識別された画素は背景に識別された画素よりも低い更新率で更新することを特徴とする請求項2ないし4のいずれかに記載のオブジェクト抽出装置。
  6. 前記背景差分閾値を決定する手段は、前記変位情報に基づいて決定した背景差分閾値を、現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素について低く調整することを特徴とする請求項1ないし5のいずれかに記載のオブジェクト抽出装置。
  7. 前記変位情報に基づいて背景差分閾値が移動された移動元の各画素の更新率を初期化する手段をさらに具備したことを特徴とする請求項2ないし5のいずれかに記載のオブジェクト抽出装置。
  8. 前記変位情報に基づいて背景差分閾値が移動された移動元の各画素の背景差分閾値を初期化する手段をさらに具備したことを特徴とする請求項1ないし7のいずれかに記載のオブジェクト抽出装置。
  9. コンピュータが映像の各フレームから、過去フレームを統計的に処理した背景モデルを背景とする背景差分計算によりオブジェクトを抽出するオブジェクト抽出方法において、
    各フレームからオブジェクト領域を検出し、
    フレーム間でのオブジェクト領域の変位情報を取得し、
    前フレームに用いた背景差分閾値を前記変位情報に基づいて現フレームの対応する画素領域に移動して現フレームに用いる背景差分閾値を決定し、
    前記背景モデルと現フレームとの差分を前記更新した背景差分閾値と比較する背景差分計算により現フレームの各画素を背景および前景のいずれかに識別し、
    現フレームに基づいて前記背景モデルを更新することを特徴とするオブジェクト抽出方法。
  10. 背景モデルに現フレームを所定の更新率で反映させて更新する際の当該更新率を前記変位情報に基づいて決定することを特徴とする請求項9に記載のオブジェクト抽出方法。
  11. 前記変位情報に基づいて、変位速度が大きい画素ほど更新率を高く調整することを特徴とする請求項10に記載のオブジェクト抽出方法。
  12. 現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素の更新率を低く調整することを特徴とする請求項10または11に記載のオブジェクト抽出方法。
  13. 前記識別の結果に基づいて、前景に識別された画素は背景に識別された画素よりも低い更新率で更新することを特徴とする請求項10ないし12のいずれかに記載のオブジェクト抽出方法。
  14. 前記変位情報に基づいて決定した背景差分閾値を、現フレームに対するオブジェクト検出の結果に基づいて、オブジェクトが検出された画素について低く調整することを特徴とする請求項9ないし13のいずれかに記載のオブジェクト抽出方法。
  15. 請求項9ないし14のいずれかに記載のオブジェクト抽出方法をコンピュータに実行させるオブジェクト抽出プログラム。
JP2019149690A 2019-08-19 2019-08-19 オブジェクト抽出装置、方法およびプログラム Active JP7121708B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149690A JP7121708B2 (ja) 2019-08-19 2019-08-19 オブジェクト抽出装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149690A JP7121708B2 (ja) 2019-08-19 2019-08-19 オブジェクト抽出装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021033407A JP2021033407A (ja) 2021-03-01
JP7121708B2 true JP7121708B2 (ja) 2022-08-18

Family

ID=74676556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149690A Active JP7121708B2 (ja) 2019-08-19 2019-08-19 オブジェクト抽出装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7121708B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268345A (ja) 2005-03-23 2006-10-05 Toshiba Corp 画像処理装置および画像処理方法
JP2011053915A (ja) 2009-09-02 2011-03-17 Sony Corp 画像処理装置、画像処理方法、プログラム及び電子機器
JP2012257173A (ja) 2011-06-10 2012-12-27 Canon Inc 追尾装置、追尾方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268345A (ja) 2005-03-23 2006-10-05 Toshiba Corp 画像処理装置および画像処理方法
JP2011053915A (ja) 2009-09-02 2011-03-17 Sony Corp 画像処理装置、画像処理方法、プログラム及び電子機器
JP2012257173A (ja) 2011-06-10 2012-12-27 Canon Inc 追尾装置、追尾方法及びプログラム

Also Published As

Publication number Publication date
JP2021033407A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
JP6719457B2 (ja) 画像の主要被写体を抽出する方法とシステム
EP1859410B1 (en) Method of tracking objects in a video sequence
EP1859411B1 (en) Tracking objects in a video sequence
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
KR101198322B1 (ko) 얼굴 표정 인식 방법 및 시스템
JP6030617B2 (ja) 画像処理装置および画像処理方法
US20160140399A1 (en) Object detection apparatus and method therefor, and image recognition apparatus and method therefor
JP2009087090A (ja) 対象物追跡装置および対象物追跡方法
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
Ribeiro et al. Hand Image Segmentation in Video Sequence by GMM: a comparative analysis
US20230334235A1 (en) Detecting occlusion of digital ink
Asaari et al. Hand gesture tracking system using Adaptive Kalman Filter
Lin et al. An efficient and robust moving shadow removal algorithm and its applications in ITS
JP7096175B2 (ja) オブジェクト抽出方法および装置
KR102434397B1 (ko) 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
Katramados et al. Real-time visual saliency by division of gaussians
JP2016052013A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
Hu et al. Video object segmentation in rainy situations based on difference scheme with object structure and color analysis
Wang et al. Efficient visual tracking by probabilistic fusion of multiple cues
JP7121708B2 (ja) オブジェクト抽出装置、方法およびプログラム
JP2016081252A (ja) 画像処理装置および画像処理方法
GB2467643A (en) Improved detection of people in real world videos and images.
Tsai et al. Multiple human objects tracking in crowded scenes
Zhu et al. A transform domain approach to real-time foreground segmentation in video sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R150 Certificate of patent or registration of utility model

Ref document number: 7121708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150