JP7491830B2 - 被写体シルエット抽出装置、方法及びプログラム - Google Patents

被写体シルエット抽出装置、方法及びプログラム Download PDF

Info

Publication number
JP7491830B2
JP7491830B2 JP2020212906A JP2020212906A JP7491830B2 JP 7491830 B2 JP7491830 B2 JP 7491830B2 JP 2020212906 A JP2020212906 A JP 2020212906A JP 2020212906 A JP2020212906 A JP 2020212906A JP 7491830 B2 JP7491830 B2 JP 7491830B2
Authority
JP
Japan
Prior art keywords
camera
silhouette
subject
error
camera parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020212906A
Other languages
English (en)
Other versions
JP2022099127A (ja
Inventor
良亮 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020212906A priority Critical patent/JP7491830B2/ja
Publication of JP2022099127A publication Critical patent/JP2022099127A/ja
Application granted granted Critical
Publication of JP7491830B2 publication Critical patent/JP7491830B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、カメラで撮影した動画像から被写体部分のみを前景としたシルエットを抽出する被写体シルエット抽出装置、方法及びプログラムに関する。
自由視点映像技術は、複数カメラの映像を入力してカメラが存在しない視点も含めた任意の視点からの映像視聴を可能とする技術である。自由視点映像を実現する一手法として、非特許文献1が開示する視体積交差法に基づく3Dモデルベースの自由視点映像生成手法が知られている。
視体積交差法は、図13に示す様に、異なるカメラ位置で撮影したN枚のシルエット画像を3次元ワールド座標に投影した際の視錐体の共通部分を次式(1)に基づいて視体積(Visual Hull)VH(K)として獲得する技術である。
Figure 0007491830000001
ここで、集合Kは各カメラのシルエット画像の集合であり、Vkはk番目のカメラから得られるシルエット画像に基づいて計算される視錐体である。また、通常はN枚全てのカメラの共通部分となる部分がモデル化されるが、N-1枚が共通する場合にモデル化するなど、モデル化が成されるカメラ台数に関しては変更してもよい。
このとき、例えばマーチングキューブ法などのボクセルモデルをポリゴンモデルに変換する手法を用いてボクセルモデルをポリゴンモデルに変換する機能を具備し、ポリゴンモデルとして3Dモデルを出力する機能を有していてもよい。
このような視体積交差法は、非特許文献2が開示するフルモデル方式自由視点(=3Dモデルの形状を忠実に表現する方式の自由視点)を実現する上での基礎技術として利用されている。
視体積交差法で利用する積集合を得るためのシルエット抽出手法として、非特許文献3に代表される背景差分法ベースの手法が知られている。背景差分法は、背景モデルと呼ばれる被写体が存在しない状態のモデルと入力画像の差分を基に被写体を抽出する手法である。また、近年は非特許文献4が開示するDeep Learningベースの被写体シルエット抽出手法も登場し、高精度でシルエットを抽出可能な手法が次々と提案されている。
特願2020-012676号
Laurentini, A. "The visual hull concept for silhouette based image understanding.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 16, 150-162, (1994). J. Kilner, J. Starck, A. Hilton and O. Grau, "Dual-Mode Deformable Models for Free-Viewpoint Video of Sports Events," Sixth International Conference on 3-D Digital Imaging and Modeling (3DIM 2007), Montreal, QC, 2007, pp. 177-184. C. Stauffer and W. E. L. Grimson, "Adaptive background mixture models for real-time tracking," 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 246-252, Vol. 2, (1999). Lim, Long Ang, and Hacer Yalim Keles. "Foreground Segmentation Using Convolutional Neural Networks for Multiscale Feature Encoding." Pattern Recognition Letters, (2018). J. Chen, et al, "Sports Camera Calibration via Synthetic Data," CVPR Workshop, 2019. Z. Zhang. A flexible new technique for camera calibration. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 22(11):1330-1334, 2000. 鶴崎 裕貴、野中 敬介、渡邊 良亮、内藤 整, "Line Segment Detectorを用いたカメラキャリブレーションの高精度化に関する検討," , 2020-AVM-108, 7, pp. 1-6, 2020. O. Barnich and M. Van Droogenbroeck, "ViBe: A Universal Background Subtraction Algorithm for Video Sequences," in IEEE Transactions on Image Processing, vol. 20, no. 6, pp. 1709-1724, June 2011.
視体積交差法に利用するシルエット抽出では、非特許文献3,4のシルエット抽出技術により得られるシルエットが完璧(ここでの完璧とは、非特許文献3,4の中で評価に用いられているF-Measureが100%を示すことと定義する)であったとしても、視体積交差法によって生成される3Dモデルに欠損が生じ得る。これは、カメラの内部パラメータや外部パラメータの推定誤差が一つの要因となっている。
視体積交差法を用いた3Dモデルの生成のためには、事前にカメラの位置や向きを正しく推定し、加えて画像中に含まれるレンズによる歪を除去するなど、カメラパラメータの推定誤差を小さくする必要がある。これらの研究は、非特許文献5などで改善が進められているものの研究途上であり、正確にカメラの位置や向きを自動推定することは困難である。その結果、図6に示すように合成後の3Dモデルに欠損が発生し、視聴時に違和感が発生するという課題があった。
本発明の目的は、上記の技術課題を解決し、カメラパラメータの推定誤差を考慮して、動画像から3Dモデル生成に適した被写体シルエットを抽出できる被写体シルエット抽出装置、方法及びプログラムを提供することにある。
上記の目的を達成するために、本発明は、カメラで撮影した動画像から被写体のシルエットを抽出する被写体シルエット抽出装置において、以下の構成を具備した点に特徴がある。
(1) 動画像に基づいてカメラパラメータ誤差を推定する手段と、カメラパラメータ誤差の推定結果に基づいてシルエット抽出パラメータを計算する手段と、シルエット抽出パラメータに基づいて被写体シルエットを計算する手段とを具備した。
(2) カメラパラメータ誤差が大きいほど被写体シルエットの輪郭を膨張するようにした。
(3) 被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返すようにした。
(4) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値を計算するようにした。
(5) カメラパラメータ誤差が大きいほど背景モデルの更新率を低い値に計算するようにした。
(6) カメラパラメータ誤差が大きいほど、各画素が前景領域に識別され易くなるように背景差分閾値を計算し、背景モデルの更新率を低い値に計算するようにした。
(1) カメラパラメータ誤差の推定結果に基づいて計算したシルエット抽出パラメータを用いて被写体シルエットを計算するので、当該被写体シルエットを用いて3Dモデルを生成する際にカメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できるようになる。
(2) カメラパラメータ誤差が大きいほど被写体シルエットの輪郭が膨張するので、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。
(3) 被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返されるので、カメラパラメータ誤差が原因で生じ得る欠けやノイズなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。
(4) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値が計算されるので被写体シルエットを拡張できる。したがって、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。
(5) カメラパラメータ誤差が大きいほど背景モデルの更新率が低い値に計算されるので、各画素が前景領域に識別され易くなる。したがって、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。
(6) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値が計算され、背景モデルの更新率が低い値に計算されるので、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる。
本発明を適用した被写体シルエット抽出装置を含む3Dモデル生成システムの機能ブロック図である。 本発明の第1実施形態に係る被写体シルエット抽出装置の機能ブロック図である。 カメラパラメータの推定方法を模式的に示した図である。 再投影誤差が発生している例を示した図である。 カメラパラメータの推定誤差が原因で視体積が小さく計算される例を示した図である。 カメラパラメータの推定誤差が原因で3Dモデルに欠損が生じる例を示した図である。 シルエットの輪郭膨張により欠損の少ない3Dモデルが形成される例を示した図である。 本発明の第2実施形態に係る被写体シルエット抽出装置の機能ブロック図である。 本発明の第3実施形態に係る被写体シルエット抽出装置の機能ブロック図である。 背景モデルを用いた背景差分法によりシルエットを抽出する方法を模式的に示した図である。 本発明の第4実施形態に係る被写体シルエット抽出装置の機能ブロック図である。 本発明の第5実施形態に係る被写体シルエット抽出装置の機能ブロック図である。 視体積交差法による3Dモデルの生成方法を示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した被写体シルエット抽出装置1を含む3Dモデル生成システム100の主要部の構成を示した機能ブロック図である。
被写体シルエット抽出装置1は、動画像取得部10、カメラパラメータ誤差推定部20、シルエット抽出パラメータ計算部30およびシルエット計算部40を主要な構成とする。3Dモデル生成システム100は前記被写体シルエット抽出装置1に加えて、シルエット画像を用いて視体積交差法により3Dモデルを生成する3Dモデル生成部2を含む。
このような3Dモデル生成システム100またはその被写体シルエット抽出装置1は、CPU,ROM,RAM,バス,インタフェース等を備えた少なくとも一台の汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。
動画像取得部10は、少なくとも一台のカメラcamから動画像を取得する。動画像を複数のカメラから取得する場合、各カメラは被写体を異なる視点から撮影するように配置される。動画像はカメラから直接取得しても良いし、あるいは動画像データベース(DB)3などに保蔵されている動画像ファイルを読み出すことで取得しても良い。
カメラパラメータ誤差推定部20は、動画像から抽出した静止画像、例えばフレーム画像に基づいてカメラごとに各カメラの状態を示すカメラパラメータの誤差(カメラパラメータ誤差)を推定する。
シルエット抽出パラメータ計算部30は、カメラパラメータ誤差の推定結果に基づいて、動画像からシルエットを抽出する際のパラメータ(シルエット抽出パラメータ)を計算する。シルエット計算部40は、動画像からフレームごとに前記シルエット抽出パラメータを用いたシルエット計算によりシルエット画像を抽出する。
3Dモデル生成部2は、前記図13を参照して説明したように、シルエット画像を用いた視体積交差法により被写体の3Dモデルを生成する。
図2は、前記被写体シルエット抽出装置1の第1実施形態の構成を示した機能ブロック図であり、ここでは本発明の説明に不要な構成は図示を省略している。本実施形態は、動画像から既知の手法で取得した被写体のシルエットを前記シルエット抽出パラメータに基づいて膨張させるようにした点に特徴がある。
カメラパラメータ誤差推定部20は、カメラパラメータ推定部21および再投影誤差推定部22を含む。カメラパラメータは、ワールド座標上の3Dの点(X, Y, Z)をカメラ映像上の2Dの点(u, v)に変換するために用いられ、内部パラメータおよび外部パラメータを含む。ピンホールカメラモデルにおける変換式は次式(2)の行列で表される。
Figure 0007491830000002
r11~r33はカメラの向きを示す回転行列、t1~t3はカメラの位置を表す並進行列であり、いずれもカメラの外部パラメータと呼ばれる。fx,fyはズーム具合を示すピクセル単位の焦点距離、cx、cyは画像の主点であり、いずれもカメラの内部パラメータと呼ばれる。内部パラメータは、その他にカメラレンズ特有の放射状歪や接線歪等をモデル化する際の歪み係数を含む場合もある。sは[u,v,1]とするためのスケーリングに用いる変数である。
前記カメラパラメータ推定部21は、既知の手法によりカメラパラメータを推定する。本実施形態では、非特許文献6が開示するように、ワールド座標系の既知の3次元ワールド座標と画像上の対応する2次元座標とのペアを多数集め、これらの再投影誤差が小さくなるように最適なパラメータを推定する手法を採用する。
図3は、非特許文献6によるカメラパラメータの推定方法を模式的に示した図である。撮影対象がスタジアム内のフィールドやコートを含み、同図(a)のように、白線交点の3次元ワールド座標(Xi, Yi, Zi)が規格等から既知であれば、これらの白線交点と同図(b)の2D画像に写り込んだ対応する各白線交点の2D位置(uc, i,vc, i)との画素ペアを多く収集して各パラメータを暫定的に推定する。そして、このパラメータを使って3D座標(Xi, Yi, Zi)を2D画像上に投影した点(u'c, i,v'c, i)と写り込んだ位置(uc, i,vc, i)との距離の差(再投影誤差)Rc, iが小さくなるように各パラメータを最適化することでカメラパラメータが推定される。
iは画素ペアのインデックスであり、図3の例ではスタジアムの白線交点の3D位置が既知なので、その3D位置に該当する画像[同図(b)]上の対応点をUI上での手動での選択、ないしは非特許文献7が開示する手法に基づいて自動推定することによって、3Dワールド座標上の点(Xi, Yi, Zi)と2D画像上の点(uc, i,vc, i)との対応する画素ペアを獲得する。
本実施形態では、カメラパラメータ推定部21が各画素ペアiの再投影誤差Rc, iの平均値が小さくなるカメラパラメータを推定するものの、取得する動画像がレンズによる歪曲収差の影響で歪んでいる場合や、2D画像上の点(uc, i,vc, i)の推定位置に誤りが含まれる場合には再投影誤差Rc, iが0にならない。
図4は、再投影誤差が発生している例を示した図であり、この例では白線交点の検出された位置(uc, 11,vc, 11)が実際の白線交点の位置から大幅にずれていることから、推定されたカメラパラメータを利用して3D座標(X11, Y11, Z11)を2D画像上に投影した点(u'c, 11,v'c, 11)に関しても実際の白線交点の位置から大幅にずれており、最終的に再投影誤差Rc, iも大きくなっている。これは極端な例ではあるが、一般的にも再投影誤差Rc, iを0にすることは困難である。
再投影誤差Rc, iが大きいと、カメラパラメータの推定結果が誤差を含んでいる可能性が高くなることから、この状況下で自由視点制作を行うと、図5に示したように視体積が小さく計算されることがあり、その結果、図6に一例を示したように3Dモデルに欠損が生じ得る。
本実施形態では、前記再投影誤差推定部22が、カメラc上の全ての画素ペアから計算される再投影誤差Rc, iの平均を次式(3)で計算し、これで各カメラcが抱えるカメラパラメータ誤差Ecを代表する。ここで、Iは(Xi, Yi, Zi)と(uc, i,vc, i)との対応する画素ペアの総数である。
Figure 0007491830000003
上式(3)ではカメラパラメータEcがカメラごとに一つの値として求まるが、カメラ上の画素(u, v)ごとに異なるカメラパラメータ誤差Ec, (u, v)を計算するようにしてもよい。画素ごとに異なるカメラパラメータ誤差を計算する手段として、上式(3)において、各画素(u, v)に最も近い画素ペアの再投影誤差Rc, iをEc (u, v)として得る方法が考えられる。あるいは画素(u, v)ごとに周囲の各画素ペアの再投影誤差Rc, iを、距離が近い画素ペアの再投影誤差Rc, iほど強く反映されるように距離の逆数に応じて重み付け和した値としても良い。
これにより、画素(u, v)に応じた再投影誤差を採用できるため、画像の一部分のみに歪曲収差が大きく含まれる場合などに、より正確に誤差を推定できる。また、画素ごとに誤差Ec (u, v)を得ることで、後段のシルエット抽出パラメータ計算部30において画素(u, v)ごとに異なるカメラパラメータを設定できるようになる。
なお、カメラパラメータ誤差Ec (u, v)の計算方法は再投影誤差を用いる方法に限定されない。例えば、カメラレンズによって生じる放射状歪がカメラの画角の外側ほど大きくなるという傾向に基づいて、画像中心からの距離が遠くなるほどEc (u, v)が大きくなるように計算するなどの方法を採用してもよい。
シルエット抽出パラメータ計算部30は膨張量計算部31を含み、前記カメラパラメータ誤差推定部20によるカメラパラメータ誤差の推定結果に基づいて、動画像から抽出したシルエットを膨張させる際の膨張量を計算する。
本実施例では、非特許文献3や非特許文献4が開示する代表的な手法で動画像から抽出したシルエットの前景領域(シルエットが白の領域)の輪郭を膨張する。これにより、図7に示すように3Dモデル形成時に欠損が少ないモデル形成が可能になる。
なお、シルエットの輪郭を膨張させることにより、当該シルエットを用いて生成される3Dモデルの輪郭も膨張されてしまうという懸念はある。しかしながら、被写体の一部が欠損しているよりは被写体の3Dモデルが膨張されている方が視聴時の違和感が目立ちにくくなる。加えて、被写体の膨張に関しては、本発明の発明者等が発明し、特許文献1に開示したように、違和感を軽減する手法が既に提案されている。
前記膨張量計算部31は、上式(3)で求められるカメラパラメータ誤差Ecに基づいて膨張量dを計算する。本実施形態では、カメラパラメータ誤差Ecが大きいカメラから抽出したシルエットほど膨張量dがより大きな値に設定され、シルエットがより大きく膨張される。これにより、カメラパラメータの影響で被写体3Dモデルに欠損が生じてしまうことを抑止できる。なお、パラメータ誤差をカメラ単位(Ec)ではなくカメラごとに画素単位Ec,i(u, v)で計算できていれば、膨張量dも画素(u, v)ごとに決定してもよい。
シルエット計算部40はシルエット抽出部41およびシルエット輪郭膨張処理部42を備える。シルエット抽出部41は、フレーム画像に非特許文献3や非特許文献4が開示する任意の手法を適用して被写体のシルエットを抽出する。シルエット輪郭膨張処理部42は、シルエット抽出部41が抽出したシルエットに対する後処理として、前記膨張量dに応じた輪郭膨張の処理を施す。
前記シルエット輪郭膨張処理部42における膨張は、抽出したシルエットの前景領域の各画素を、その周辺(2d+1)×(2d+1)画素まで拡張することで行われる。dはシルエットの輪郭の膨張量を表すパラメータであり、0以上の整数となる必要がある(d=0は膨張処理が実施されないことを意味する)。なお、シルエットの輪郭膨張は周辺(2d+1)×(2d+1)画素に拡張する方法に限定されず、上下左右4画素への膨張を繰り返すなどの他の膨張方法を採用しても良い。
なお、図8に示した第2実施形態のように、シルエット計算部40がシルエット輪郭縮退処理部43を更に備える場合には、シルエット抽出パラメータ計算部30が縮退量計算部32を更に備えても良い。
シルエット抽出では、小さいサイズの縮退処理を施した後に大きいサイズの膨張処理を施すことでシルエットの前景領域は膨張させつつ縮退処理時に微細なノイズを消去できることが知られている。
縮退処理は、シルエットの前景画素の周辺(2e+1)×(2e+1)画素内に前景ではない画素が1画素でも含まれている場合に、当該画素は前景領域の輪郭付近にあるものとしてシルエットの状態を前景から背景に変更することで行われる。eはシルエットの縮退量であり、0以上の整数である(ただしe=0は縮退処理が実施されないことを意味する)。
前記縮退量計算部32は、膨張量dの計算結果に所定の係数を乗じるか、あるいは膨張量dを変数とする所定の関数計算によりd>eの縮退量eを計算できる。このとき、縮退量eはノイズ除去の観点ではd>eに設定されることが望ましい。しかしながら、縮退量eが大き過ぎると本来前景となるべき領域がノイズとして背景にされてしまう懸念もある。そこで、本実施形態では固定的に縮退量e=2とし、前記膨張量計算部31が前記カメラパラメータ誤差Ecおよび縮退量e=2を次式(4)に適用して膨張量dを計算する。
Figure 0007491830000004
ここで、roundは小数点以下を四捨五入する関数である。Econstは膨張量dを調節するための定数であり手動で設定される。上式(4)によれば、各カメラの画素ごとにカメラパラメータ誤差Ec(u, v)の大きさによって膨張量dが画素ごとに調節される。
なお、本実施形態では縮退量eを定数としたが、膨張量dを定数とし縮退量eを変数としてもよい。この場合、上式(4)ではEconstの設定によっては膨張量dが負の値となる可能性があるが、膨張量dが負の値になる場合にはd=0として処理を行えばよい。
また、本実施形態ではノイズ除去の観点からd>eとなるように膨張量dおよび縮退量eが計算されるものとして説明したが、本発明はこれのみに限定されるものではなく、d<eやd=eであって良い。本実施形態では、縮退処理および膨張処理が当該順序で少なくとも一回繰り返される。
図9は、被写体シルエット抽出装置1の第3実施形態の構成を示した機能ブロック図であり、シルエット計算部40は背景モデルを用いた背景差分法によりシルエット計算を行う。シルエット抽出パラメータ計算部30は背景差分法によるシルエット計算で用いるパラメータをパラメータ誤差の推定結果に基づいて計算する。
本実施形態では、シルエット抽出パラメータ計算部30に背景差分閾値計算部33および背景モデル更新率計算部34を設け、シルエット抽出パラメータとして前景/背景の判定に用いる閾値T(u, v)および背景モデルの更新率U(u, v)を採用した点に特徴がある。
背景差分閾値計算部33は、例えば次式(5)に基づいて閾値T(u, v)を計算する。ここで、Tmin,Tmaxは、それぞれ閾値決定を行う際に最小となる閾値と最大となる閾値である。Emaxはカメラパラメータ誤差Ec(u, v)によるパラメータの変化量をコントロールするための定数である。これらの値は対象とするシーンなどを鑑みて手動で決定される。
Figure 0007491830000005
背景モデル更新率計算部34は、例えば次式(6)に基づいて更新率U(u, v)を計算する。ここで、Umin,Umaxはそれぞれ更新率を変化させる際の最小更新率と最大更新率であり、これらの値は対象とするシーンなどを鑑みて手動で決定される。
Figure 0007491830000006
本実施形態によれば、上式(5)により、カメラパラメータ誤差Ec(u, v)が大きくなるほど背景差分閾値T(u, v)が小さく設定されるため各画素を前景と判定されやすくできる。その結果、多くの画素が前景と判定されるようになるので第1,第2実施形態の輪郭膨張に近しい効果を奏することができる。
さらに、上式(6)により、カメラパラメータ誤差Ec(u, v)が大きくなるほど背景モデルの更新率U(u,v)が小さく設定されるため背景モデルを更新されにくくできる。その結果、背景モデルの更新が進んで輪郭が削られていく効果を抑止することができる。
シルエット計算部40において、前景抽出処理部44は動画像から背景モデルを用いた背景差分法により前景を抽出する。背景を単一のガウス分布でモデル化する場合、図10に模式的に示したように、ある画素の背景モデルを構築するためのFフレーム目までのガウス分布の平均がμF (u, v)、標準偏差がσF (u, v)で与えられるとき、背景差分の計算式は次式(7)となる。
Figure 0007491830000007
本実施形態では、上記の条件式(7)を満たす画素(u, v)は背景と判断される。IF (u, v)は取得した動画像の各画素の輝度値、zは標準偏差の何倍までを背景と判断するかを調節するパラメータであり、閾値T(u, v)は上式(5)で計算される。
なお、背景差分の判定に使う画像の色空間に関してはグレースケールでも良いし、RGBやYUV等の色空間でも実施可能であるが、複数の色チャネルを持つ場合には全てのチャネルを独立に処理し、全ての色で背景になる条件を満たす場合に背景となると判定するものとする。
背景モデルの構築方法は単純ガウス分布を用いた方法に限定されず、非特許文献3が開示する混合ガウス分布を用いて背景モデルを構築する手法や、非特許文献8が開示する各画素位置の過去の画素サンプルを特定数保持し続けることで背景モデルを構築する手法を採用しても良い。
画素サンプルを特定数保持する手法では、保持しているサンプル内に入力画素との類似画素が何画素あるかに基づいて前景/背景の判定を行うため、この判定基準となる画素数の閾値を上下させることで、本発明の機構を実現可能である。また更新率という観点でも、特定数保持される画素サンプルを一定の確率で現在フレームの画素で置き換える処理が実施されるため、この確率(=更新率)を上下することで実現できる。
背景モデル更新部45は、背景モデルのガウス分布平均μF (u, v)および標準偏差σF (u, v)を次式(8),(9),(10)により各フレームで更新する。
Figure 0007491830000008
Figure 0007491830000009
Figure 0007491830000010
このように、本実施形態ではフレームごとに背景モデルを徐々に更新することで、日照変化等に応じて少しずつ背景の色が変わる場面等に対して、動的に背景を更新し、精度面で優れたシルエット抽出を実現することができる。
なお、本実施形態ではカメラパラメータ誤差Ec(u, v)がカメラごとに画素単位で推定されるものとして説明したが、本発明はこれのみに限定されるものではなく、カメラ単位で推定されても良い。この場合、判定閾値および背景モデルの更新率もカメラ単位で計算される。
また、上記の第3実施形態ではカメラパラメータの推定誤差に基づいて計算するシルエット抽出パラメータが背景差分閾値T(u, v)および背景モデル更新率U(u, v)であるものとして説明した。しかしながら本発明はこれのみに限定されるものではなく、図11に示した第4実施形態のように背景差分閾値T(u, v)のみであっても良いし、あるいは図12に示した第5実施形態のように背景モデル更新率U(u, v)のみであっても良い。
さらに、第1または第2実施形態と第3ないし第5実施形態とを適宜に組み合わせ、カメラパラメータの推定誤差に基づいてシルエットの膨張量dを計算し、さらにシルエットを背景差分法で抽出する際の背景差分閾値T(u, v)や背景モデル更新率U(u, v)を計算するようにしても良い。
1…被写体シルエット抽出装置,2…3Dモデル生成部,3…動画像DB,10…動画像取得部,20…カメラパラメータ誤差推定部,21…カメラパラメータ推定部,22…再投影誤差推定部,30…シルエット抽出パラメータ計算部,31…膨張量計算部,32…縮退量計算部,33…背景差分閾値計算部,34…背景モデル更新率計算部,40…シルエット計算部,41…シルエット抽出部,42…シルエット輪郭膨張処理部,43…シルエット輪郭縮退処理部,44…前景抽出処理部,45…背景モデル更新部,100…3Dモデル生成システム

Claims (10)

  1. カメラで撮影した動画像から被写体のシルエットを抽出する被写体シルエット抽出装置において、
    カメラで撮影した3D空間およびその動画像の対応する画素ペアの座標に基づいて推定したカメラパラメータの再投影誤差でカメラパラメータ誤差を代表するカメラパラメータ誤差推定手段と、
    動画像から被写体シルエットを取得する手段と、
    前記カメラパラメータ誤差に基づいて、前記取得した被写体シルエットの輪郭を膨張させる際の膨張量を計算する手段と、
    前記膨張量の計算結果に基づいて、前記被写体シルエットの輪郭を膨張させる手段とを具備し、
    前記膨張量を計算する手段は、カメラパラメータ誤差が大きいほど膨張量が多くなるように計算することを特徴とする被写体シルエット抽出装置。
  2. 前記再投影誤差が最小化するようにカメラパラメータを最適化する手段を更に具備し、
    前記最適化後のカメラパラメータの再投影誤差でカメラパラメータ誤差を代表することを特徴とする請求項に記載の被写体シルエット抽出装置。
  3. 前記カメラパラメータ誤差推定手段は、カメラごとにカメラパラメータ誤差を推定することを特徴とする請求項1または2に記載の被写体シルエット抽出装置。
  4. 前記カメラパラメータ誤差推定手段は、カメラごとに各画素ペアの再投影誤差を計算し、
    カメラごとに各画素ペアの再投影誤差の平均値でカメラパラメータ誤差を代表することを特徴とする請求項に記載の被写体シルエット抽出装置。
  5. 前記カメラパラメータ誤差推定手段は、各カメラの画素ごとにカメラパラメータ誤差を推定することを特徴とする請求項1または2に記載の被写体シルエット抽出装置。
  6. 前記カメラパラメータ誤差推定手段は、カメラごとに各画素ペアの再投影誤差を計算し、
    各カメラの画素ごとに距離の最も近い画素ペアの再投影誤差でカメラパラメータ誤差を代表することを特徴とする請求項に記載の被写体シルエット抽出装置。
  7. 前記カメラパラメータ誤差推定手段は、カメラごとに各画素ペアの再投影誤差を計算し、
    各カメラの画素ごとに各画素ペアの再投影誤差および当該画素ペアまでの距離の関数でカメラパラメータ誤差を代表することを特徴とする請求項に記載の被写体シルエット抽出装置。
  8. 被写体シルエットの輪郭を所定量だけ縮退させる輪郭縮退処理手段を更に具備し、
    被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返すことを特徴とする請求項1ないし7のいずれかに記載の被写体シルエット抽出装置。
  9. カメラで撮影した動画像から被写体のシルエットをコンピュータが抽出する被写体シルエット抽出方法において、
    カメラで撮影した3D空間およびその動画像の対応する画素ペアの座標に基づいて推定したカメラパラメータの再投影誤差でカメラパラメータ誤差を代表し、
    動画像から被写体シルエットを取得し、
    前記カメラパラメータ誤差に基づいて、前記取得した被写体シルエットの輪郭を膨張させる際の膨張量を計算し、
    前記膨張量の計算結果に基づいて、前記被写体シルエットの輪郭を膨張させ、
    前記膨張量の計算では、カメラパラメータ誤差が大きいほど膨張量が多くなるように計算することを特徴とする被写体シルエット抽出方法。
  10. カメラで撮影した動画像から被写体のシルエットを抽出する被写体シルエット抽出プログラムにおいて、
    カメラで撮影した3D空間およびその動画像の対応する画素ペアの座標に基づいて推定したカメラパラメータの再投影誤差でカメラパラメータ誤差を代表する手順と、
    動画像から被写体シルエットを取得する手順と、
    前記カメラパラメータ誤差に基づいて、前記取得した被写体シルエットの輪郭を膨張させる際の膨張量を計算する手順と、
    前記膨張量の計算結果に基づいて、前記被写体シルエットの輪郭を膨張させる手順とをコンピュータに実行させ、
    前記膨張量を計算する手順は、カメラパラメータ誤差が大きいほど膨張量が多くなるように計算することを特徴とする被写体シルエット抽出プログラム。
JP2020212906A 2020-12-22 2020-12-22 被写体シルエット抽出装置、方法及びプログラム Active JP7491830B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020212906A JP7491830B2 (ja) 2020-12-22 2020-12-22 被写体シルエット抽出装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212906A JP7491830B2 (ja) 2020-12-22 2020-12-22 被写体シルエット抽出装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022099127A JP2022099127A (ja) 2022-07-04
JP7491830B2 true JP7491830B2 (ja) 2024-05-28

Family

ID=82261930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212906A Active JP7491830B2 (ja) 2020-12-22 2020-12-22 被写体シルエット抽出装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7491830B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067726A (ja) 2001-08-27 2003-03-07 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2018205788A (ja) 2017-05-30 2018-12-27 Kddi株式会社 シルエット抽出装置、方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067726A (ja) 2001-08-27 2003-03-07 Sanyo Electric Co Ltd 立体モデル生成装置及び方法
JP2018205788A (ja) 2017-05-30 2018-12-27 Kddi株式会社 シルエット抽出装置、方法およびプログラム

Also Published As

Publication number Publication date
JP2022099127A (ja) 2022-07-04

Similar Documents

Publication Publication Date Title
Gao et al. Sand-dust image restoration based on reversing the blue channel prior
CN107622480B (zh) 一种Kinect深度图像增强方法
CN114693760A (zh) 图像校正方法、装置及***、电子设备
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
CN105931213B (zh) 基于边缘检测和帧差法的高动态范围视频去鬼影的方法
WO2018053952A1 (zh) 一种基于场景样本库的影视图像深度提取方法
CN112085673A (zh) 一种强鬼影去除多曝光图像融合方法
CN113039576A (zh) 图像增强***和方法
CN113096057B (zh) 一种基于四光源光度立体法的高光消除方法
CN110807738A (zh) 一种基于边缘图块锐化的模糊图像非盲复原方法
CN113538569A (zh) 一种弱纹理物***姿估计方法和***
Tan et al. Image haze removal based on superpixels and Markov random field
CN111105370A (zh) 图像处理方法、图像处理装置、电子设备和可读存储介质
CN112529773B (zh) Qpd图像后处理方法及qpd相机
KR102327304B1 (ko) 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
JP7491830B2 (ja) 被写体シルエット抽出装置、方法及びプログラム
CN105913395B (zh) 一种运动目标观测及模糊复原方法
CN112465984A (zh) 一种基于双层过滤的单目相机序列图像三维重构方法
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
CN111630569B (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
JP7509509B2 (ja) 被写体シルエット抽出装置、方法及びプログラム
CN115631223A (zh) 基于自适应学习和聚合的多视图立体重建方法
CN110490877B (zh) 基于Graph Cuts的双目立体图像对目标分割方法
Shin et al. Adversarial context aggregation network for low-light image enhancement
JP7405702B2 (ja) 仮想視点レンダリング装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240516

R150 Certificate of patent or registration of utility model

Ref document number: 7491830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150