JP6811679B2 - シルエット抽出装置、方法およびプログラム - Google Patents

シルエット抽出装置、方法およびプログラム Download PDF

Info

Publication number
JP6811679B2
JP6811679B2 JP2017097953A JP2017097953A JP6811679B2 JP 6811679 B2 JP6811679 B2 JP 6811679B2 JP 2017097953 A JP2017097953 A JP 2017097953A JP 2017097953 A JP2017097953 A JP 2017097953A JP 6811679 B2 JP6811679 B2 JP 6811679B2
Authority
JP
Japan
Prior art keywords
image
pixel
silhouette
local
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097953A
Other languages
English (en)
Other versions
JP2018195047A (ja
Inventor
強 要
強 要
浩嗣 三功
浩嗣 三功
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017097953A priority Critical patent/JP6811679B2/ja
Publication of JP2018195047A publication Critical patent/JP2018195047A/ja
Application granted granted Critical
Publication of JP6811679B2 publication Critical patent/JP6811679B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、カメラ画像からオブジェクトのシルエットを抽出する装置、方法およびプログラムに係り、特に、カメラ画像からオブジェクトのシルエットを正確に抽出できるシルエット抽出装置、方法およびプログラムに関する。
特許文献1には、カメラごとに単眼背景差分法を採用し、ローカルの色差ヒストグラムを計算して、抽出したシルエットをさらに細かく洗練する技術が開示されている。しかしながら、グローバル閾値が画素レベルのセグメンテーションを制御するのに十分ではないため、満足できる品質のシルエットマスクを確実に得ることはできない。
特許文献2には、Visual Hullを構築するために3D Multiviewを利用する手法が採用されている。しかしながら、3D空間における各ボクセルの存在は、全ての視点に基づいて決定論的である。換言すれば、3D空間内の各ボクセルは、いずれか1つのカメラで可視でない場合、他の全てのカメラでは可視であっても非存在とみなされる。したがって、特許文献2では、自由視点合成における重要な技術課題である、3Dボクセルモデルの部分的な欠落を解消できない。
特開2016-177586号公報 米国特許第8,363,941号明細書
自由視点映像合成におけるオブジェクトの視覚品質は、各カメラ画像のシルエットマスクの精度に大きく依存する。しかしながら、シーンの照度変動、背景変動およびオブジェクトと背景との間の色類似性の影響のため、背景差分法のみでオブジェクトのシルエットを完全に抽出することは難しい。
また、背景差分法の結果に基づいてボクセルの占有率を簡単に計算すると、抽出されたオブジェクトにおける欠落領域と不要領域とのトレードオフの問題があるため、ボクセル占有の可能性の閾値を制御して設定することは困難である。たとえば、不要な領域の削除を優先させるためには尤度の閾値を高く設定すれば良いが、欠落した領域の復元を優先させるためには尤度の閾値を低くしなければならない。
さらに、3Dボクセル投影に基づくセグメンテーションのみでは、各ピクセルが個別に処理されるため、実際には滑らかなオブジェクト境界が滑らではなくなる。GrabCutによる画像セグメンテーションでは、対象オブジェクトの全体が取り込まれ、背景との類似性のためにセグメント化でオブジェクトが部分的に欠落する可能性がある。
本発明の目的は、上記の技術課題を解決し、カメラ等の画像からオブジェクトのシルエットを正確に抽出できるシルエット抽出装置、方法およびプログラムを提供することにある。
上記の目的を達成するために、本発明は、カメラ等の画像からオブジェクトのシルエットを抽出するシルエット抽出装置において、以下の構成を具備した点に特徴がある。
(1) 画像ごとに各画素の特徴量に基づいてグローバル統計値を計算する手段と、画像を複数の局所領域Riに分割する手段と、局所領域Riごとに各画素の特徴量に基づいてローカル統計値を計算する手段と、グローバル統計値と各局所領域Riのローカル統計値とに基づいて局所領域Riごとに閾値thiを設定する手段と、局所領域Riごとに画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域Riに固有の閾値thiと比較してシルエットを抽出する手段とを具備した。
(2) 画像を複数の局所領域Riに分割する際の各局所領域Riのサイズを前記グローバル統計値に基づいて決定する領域サイズ決定手段を更に具備した。
(3) 前記グローバル統計値が画像における各画素の特徴量の分散であり、領域サイズ決定手段は、分散が大きいほど局所領域Riのサイズを小さくするようにした。
本発明によれば、以下のような効果が達成される。
(1) 単眼の背景差分法により、画像と背景画像との対応する画素値の差分を求めて各画素がシルエット内の画素であるか否かを判断するにあたり、画像を複数の局所領域Riに分割し、局所領域Riごとに差分閾値thiを設定するようにした。したがって、局所領域Riごとに各画素の特徴量の傾向が大きく異なるような場合でもオブジェクトのシルエットを正確に抽出できるようになる。
(2) 各局所領域Riの大きさを、画像における各画素のピクセル強度の分散(グローバル分散)に応じて可変とし、グローバル分散σglobが大きいほど各局所領域Riのサイズを小さくするようにした。したがって、画像を適正数の局所領域Riに分割することが可能となり、局所領域Riの増加による処理負荷の上昇を抑えながらシルエット抽出の精度を向上させることが可能になる。
本発明の一実施形態に係るシルエット抽出装置の主要部の構成を示した機能ブロック図である。 カメラ画像の一例を示した図である。 カメラ画像を複数の局所領域Riに分割する方法を示した図である。 カメラjごとにシルエット画像S(j)を生成する方法を示したフローチャートである。 適応的閾値thiを採用して生成したシルエット画像S(j)とグローバル閾値thglobを採用して生成したシルエット画像S(j)とを比較した図である。 3Dモデルのボクセルデータを各シルエット画像S(j)に投影して対応画素のデータを取得する方法を示した図である。 スーパーピクセルの分割例を示した図である。 シルエット画像S(j)の見直し手順を示したフローチャートである。 3Dモデル修正部(40)の他の実施形態の構成を示したブロック図である。 勾配情報反映部(43)の機能を説明するための図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るシルエット抽出装置の主要部の構成を示した機能ブロック図である。このような装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装して構成しても良いし、あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成しても良い。
多視点画像入力部10は、オブジェクトObjを異なる視点で撮影する複数台のカメラCaj(Ca1,Ca2…)から、図2に一例を示したカメラ画像I(t)を視点ごとに所定の周期で取得する。シルエット画像生成部20は、各カメラ画像I(t)に基づいてオブジェクトのシルエットを含むシルエット画像S(j)を視点ごとに生成する。
前記シルエット画像生成部20において、背景画像取得部21は、オブジェクトObjが存在しない空舞台のカメラ画像I(t)から背景画像を取得する。グローバル統計値取得部22は、カメラ画像I(t)ごとに各画素の特徴量に基づいてカメラ画像全体の統計値(グローバル統計値)を計算する。本実施形態では、カメラ画像I(t)の全画素のピクセル強度の分散すなわちグローバル分散σglobが計算される。なお、カラー画像の場合は3原色のそれぞれについてμglobが計算される。
領域分割部23は、図3に一例を示したように、各視点のカメラ画像I(t)を複数の矩形の局所領域Riに分割する。本実施形態では、カメラ画像I(t)がk個の局所領域Riに分割されているが、各局所領域Riのサイズすなわち分割数kはグローバル分散σglobに依存し、グローバル分散σglobが大きくなるほど局所領域Riのサイズは小さくされる。
ローカル統計値取得部24は、各カメラ画像I(t)の局所領域Riごとに各画素の特徴量に基づいて各局所領域Riに固有の統計値(ローカル統計値)を計算する。本実施形態では、各局所領域Ri内の全画素のピクセル強度に基づいて各局所領域Riに固有のローカル分散σiが計算される。
ローカル閾値設定部25は、前記局所領域Riごとに、カメラ画像I(t)の各画素のピクセル強度と前記背景画像の対応する画素のピクセル強度との差分に基づいて当該局所領域Ri内の各画素がシルエット領域および背景領域のいずれであるかを判別するためのローカル閾値thiを設定する。
本実施形態では、予め用意されている標準的なグローバル閾値thglobを、次式(1)に示したように、グローバル分散σglobとローカル分散σiとの比に基づいて局所領域Riごとに増減補正することで各ローカル閾値thiが適応的に求められる。
ここで、2つのパラメータA,Bは、グローバル分散σglobとローカル分散σiとの比α(α∈(0,1))に応じて局所閾値thiを適合させるためのオフセット値であり、一般的にA,Bはいずれも正の値をとるが、一方は「0」であっても良い。
判別部26は、局所領域Riごとに各画素のピクセル強度と前記背景画像の対応する画素のピクセル強度との差分を当該局所領域Riに固有のローカル閾値thiと比較する。そして、差分が前記ローカル閾値thiよりも大きい画素にはシルエット内である旨のラベル「1」を付し、差分値が前記ローカル閾値thiよりも小さい画素には背景である旨のラベル「0」を付する。
シルエット画像生成部27は、全ての画素にラベル「0」またはラベル「1」の付されたシルエット画像S(j)を視点(カメラ)ごとに生成する。本実施形態ではm個のシルエット画像S(1)〜S(m)が生成される。
図4は、前記シルエット画像生成部20によるシルエット画像S(j)の生成方法を示したフローチャートであり、時刻tにおいてカメラ画像I(t)ごとに同様の処理が繰り返されてm個のシルエット画像S(1)〜S(m)が生成される。
ステップS1では、オブジェクトが映っていない背景画像が、前記背景画像取得部21により取得される。ステップS2では、各カメラCaからカメラ映像I(t)が取り込まれる。ステップS3では、カメラ画像I(t)の各画素のピクセル強度に基づいて、カメラ画像全体でのピクセル強度のグローバル分散σglobが、前記グローバル統計値取得部22により計算、取得される。
ステップS4では、前記図2に示したように、カメラ画像I(t)が前記領域分割部23によりk個の局所領域R1,R2…Ri…Rkに分割される。したがって、各カメラ画像I(t)は次式(2)で表される。
ステップS5では、局所領域Riの一つが選択される。ステップS6では、当該局所領域Riの各画素のピクセル強度に基づいて、その統計値であるピクセル強度のローカル分散σiが前記ローカル統計値取得部24により計算、取得される。
ステップS7では、前記ローカル分散σiに基づいて当該局所領域Riに固有の閾値thiが、前記ローカル閾値設定部25により上式(1)に基づいて計算される。ステップS8では、前記判別部26が局所領域Riごとに、各画素のピクセル強度と背景画像の対応する画素のピクセル強度との差分を前記適応的閾値thiと比較し、差分が閾値thiよりも大きければシルエットの画素、小さければ背景の画素と判別する。
ステップS9では、全ての局所領域Riに関して上記の識別が完了したか否が判断される。完了していなければステップS5へ戻り、次の局所領域Riに対して同様の処理が繰り返される。全ての局所領域Riの各画素について前記判別が完了するとステップS10へ進み、前記シルエット画像生成部27によりシルエット画像S(j)が生成される。
図5は、本発明に係る適応的閾値thiを採用して生成したシルエット画像S(j)[同図(a)]と、従来技術のグローバル閾値thglobを採用して生成したシルエット画像S(j)[同図(b)]とを比較した図であり、適応的閾値thiを採用することでシルエットを正確に抽出できることが判る。
本実施形態によれば、単眼の背景差分法によりカメラ画像と背景画像とを対応する画素値の差分に基づいて各画素がシルエット内の画素であるか否かを判断するにあたり、カメラ画像を複数の局所領域Riに分割し、局所領域Riごとに差分閾値thiを設定するようにした。したがって、局所領域Riごとに各画素の特徴量の傾向が大きく異なるような場合でもオブジェクトのシルエットを正確に抽出できるようになる。
また、各局所領域Riの大きさを、カメラ画像における各画素のピクセル強度の分散(グローバル分散)に応じて可変とし、グローバル分散σglobが大きいほど各局所領域Riのサイズを小さくするようにした。したがって、カメラ画像を適正数の局所領域Riに分割することが可能となり、局所領域Riの増加による処理負荷の上昇を抑えながらシルエット抽出の精度を向上させることが可能になる。
図1へ戻り、三次元形状モデル生成部30は、異なる視点ごとに生成されたシルエット画像S(j)を実空間に投影した視体積の中にオブジェクトが含まれるという制約に基づいて、視体積交差法により、各シルエット画像S(1)〜S(m)に対応する視体積の共通部分をオブジェクトの三次元形状(ボクセルデータの集合)と推定し、3次元ボクセル空間におけるオブジェクトの存在領域を示すVisual Hullを復元する。
3Dモデル修正部40は、ボクセルデータ投影部41を備え、Visual Hull内の各ボクセルデータを各視点のシルエット画像S(j)に投影する。そして、投影先がシルエット内である確率を確率計算部42により計算し、確率の低いボクセルデータを排除することで前記Visual Hullの形状を修正する。
ここで、各シルエット画像S(j)の各座標(x,y)に位置する画素をa(i)(x,y)と表記し(以下、a(i)と簡略化する)、3D空間内の各座標(x,y,z)に位置するボクセルをv(x,y,z)と表記する(以下、vと簡略化する)と、図6に示したように、各カメラが3次元空間に対してカメラパラメータC(i)により完全に較正されていれば次式(3)が成立する。
そこで、本実施形態では3Dモデル内の全てのボクセルを上式(3)に基づいて各シルエット画像S(j)にそれぞれ投影する。a(i)の値を得る演算子をΩ(a(i))と定義すれば、各ボクセルvの投影先a(i)がシルエットである確率P2d(v)は次式(4)で求められる。
そして、各ボクセルvの正当性を評価するための閾値γ∈(0,1)を、隣接する接続や勾配などの局所的なピクセル情報に基づいて定義し、次式(5)に基づいて各ボクセルvに有効ラベル「1」または無効ラベル「0」を付する。そして、無効ラベル「0」を付されたボクセルをVisual Hullから排除することで3Dモデルが修正される。
シルエット画像見直し部50は、ボクセルデータ投影部51を備え、前記修正後のVisual Hull内の各ボクセルデータを各視点に投影することで修正されたシルエット画像S(j)を生成する。
シルエット画像再見直し部60は、カメラ画像I(t)を多数のスーパーピクセルに分割し、その境界情報に基づいて前記見直し後シルエット画像S(j)_rev1を更に見直し、再見直し後シルエット画像S(j)_rev2を構築する。
前記シルエット画像再見直し部60において、スーパーピクセル分割部61は、図7(a)に模式的に示したように、カメラ画像I(t)を多数のスーパーピクセルUkに分割する。ここで、スーパーピクセルとは輝度や色等の性質が比較的似ているピクセルを複数まとめた小領域であり、スーパーピクセルを算出するための手法としては、Graph-based手法、Mean Shift手法あるいはNormalized Cut手法などが知られている。各スーパーピクセルUkはオブジェクトのシルエットを定義するために有益な境界情報を有している。
判別部62は、各スーパーピクセルUk内の全画素を、前記見直し後シルエット画像S(j)_rev1の対応画素に付されたラベルに基づいてシルエット/背景のいずれかに判別する。占有率計算部63は、前記判別結果に基づいて、スーパーピクセルUkごとに全画素に占めるシルエットの占有率を計算する。
ラベリング部64は、次式(6)に示したように、スーパーピクセルUkごとに、当該スーパーピクセルUkにおけるシルエットの占有率を、総画素数Tとシルエットの画素数との比(h/T)として求め、占有率と所定の閾値βとの関係に基づいて各スーパーピクセルUkをラベル付けする。すなわち、占有率(h/T)が閾値βを超えるスーパーピクセルUkにラベル「1」が付される。
修正部65は、ラベル「1」を付されたスーパーピクセルUkの各画素に対応する前記見直し後マスクS(j)_rev1の各画素値を「1」とする再見直し後マスクS(j)_rev2を獲得する。
図7(a),(b)は、前記シルエット画像再見直し部60の機能を模式的に表現した図であり、ここでは3つのスーパーピクセルUa,Ub,Ucに着目して説明する。
前記閾値β=0.6と仮定すると、スーパーピクセルUaではh/T>βが成立するので当該スーパーピクセルUaにはラベル「1」が付される。その結果、見直し後マスクS(j)_rev1において当該スーパーピクセルUa内の各画素の画素値が全て「1」に書き換えられる。
これに対して、スーパーピクセルUb,Ucではh/T>βが成立しないので当該各スーパーピクセルUb,Ucにはラベル「0」が付される。その結果、見直し後マスクS(j)_rev1において当該スーパーピクセルUb,Uc内の各画素の画素値が全て「0」に書き換えられる。
図8は、本実施形態におけるシルエット画像S(j)の見直し手順を示したフローチャートであり、ステップS21では、複数の視点ごとに生成された複数のシルエット画像S(j)が取得される。ステップS22では、前記三次元形状モデル生成部30において、複数のシルエット画像S(j)に基づいてオブジェクトの3Dモデル(Visual Hull)が初期化される。
ステップS23では、前記3Dモデル修正部40において、3Dモデル内の各ボクセルが各シルエット画像S(j)に投影され、ボクセルごとに投影先がシルエット内である確率P2d(v)が、前記確率計算部42により上式(4)に基づいて計算される。ステップS24では、確率P2d(v)の低いボクセルを排除することで3Dモデルの形状が修正される。
ステップS25では、前記シルエット画像見直し部50において、前記更新後の3Dモデルの各ボクセルデータを各シルエット画像S(j)に投影し、投影先の各画素にシルエットである旨のラベル「1」を付することで見直し後シルエット画像S(j)_rev1を構築する。
ステップS26では、前記シルエット画像再見直し部60において、カメラ画像I(t)が複数のスーパーピクセルUkに分割される。ステップS27では、スーパーピクセルUkごとに、見直し後シルエット画像S(j)_rev1においてシルエット内である画素に相当する画素(シルエット相当画素)の占有確率が計算される。
ステップS28では、シルエット相当画素の占有確率が所定の閾値を超えるスーパーピクセルUk内の全ての画素に対応する前記見直し後シルエット画像S(j)_rev1の各画素のラベルをシルエット「1」に書く替えることで再見直し後シルエット画像S(j)_rev2が構築される。ステップS29では、いくつかの後処理後(例えば、形態学的操作、およびフィルタリングなど)が実施されて各シルエット画像が完成する。
本実施形態によれば、シルエットに基づいて構築した3Dモデルの各ボクセルデータを各視点のシルエット画像に投影し、投影先がシルエット内の画素である確率の低いボクセルデータを排除することで前記3Dモデルを修正するようにした。したがって、見直し後の3Dモデルの各ボクセルデータを各視点のシルエット画像に投影することで各シルエットを見直す際の精度が向上し、シルエットから不要な領域を正確に排除できるようになる。
また、本実施形態によれば、カメラ画像を多数のスーパーピクセルに分割し、各スーパーピクセルの境界情報を用いて各シルエット画像の境界を見直すようにしたので、シルエットの境界を精度良く修正できるようになる。
図9は、前記3Dモデル修正部40の他の実施形態の構成を示したブロック図であり、勾配情報反映部43を更に具備した点に特徴がある。
上記の実施形態では、前記3Dモデル修正部40が3Dモデルの各ボクセルデータを各シルエット画像S(j)へ投影し、ボクセルデータの投影先がシルエット内である確率P2dに基づいて各ボクセルデータを取捨するものとして説明した。これに対して、本実施形態では投影先のみならず、その近隣画素も考慮して当該投影先がシルエット内であるか否かを判断するようにした点に特徴がある。
本実施形態では、各ボクセルの投影先画素の上方向,下方向、右方向および左方向に距離τだけ離れた各画素に付されたラベルを、それぞれ(x,y+τ),(x,y−τ),(x+τ,y),(x−τ,y)としたとき、次式(7)に基づいて勾配情報∇を求め、これを次式(8)に適用することで最終的の当該投影先がシルエット内であるか否かを判断するようにしている。ここで、τは勾配計算におけるステップであり、∇∈[0,4]である。
図10は、本実施形態における投影先の判別方法を、τ=1の場合を例にして模式的に示した図であり、同図(a)では、投影先がシルエット内(〇:=1)であり、その上下左右の各方向に隣接する4つの画素の全てが背景(●:=0)である。したがって、∇=4となるので投影先はシルエット内と認識されない。
同図(b)では、投影先の画素がシルエット内であり、その上下左右の各方向に隣接する4つの画素のうち、1つのみがシルエット内で他の3つは背景である。したがって、∇=3となるので投影先はシルエット内と認識されない。同様に、同図(c)の例でも∇=2となるので投影先はシルエット内と認識されない。
これに対して、同図(d)では投影先がシルエット内であり、その上下左右の各方向に隣接する4つの画素のうち3つがシルエット内なので∇=1となり、同図(e)でも、4つの隣接画素全てがシルエット内なので∇=0となる。したがって、いずれの場合も投影先はシルエット内と認識される。
本実施形態によれば、ボクセルデータの投影先がシルエット内の画素として予めラベル付けされていても、その周辺画素の大部分が背景の画素としてラベル付けされている場合のように、投影先がシルエット内である旨のラベル付が妥当ではないと推定される場合にはシルエット内と認識しないようにしたので、外乱等の影響による誤ったラベル付けの影響を排除できるようになる。
10…多視点画像入力部,20…シルエット画像生成部,21…背景画像取得部,22…グローバル統計値取得部,23…領域分割部,24…ローカル統計値取得部,25…ローカル閾値設定部,26…判別部,27…シルエット画像生成部,30…三次元形状モデル生成部,40…3Dモデル修正部,41…ボクセルデータ投影部,42…確率計算部,43…勾配情報反映部,50…シルエット画像見直し部,51…ボクセルデータ投影部,60…シルエット画像再見直し部,61…スーパーピクセル分割部,62…判別部,63…占有率計算部,64…ラベリング部,65…修正部

Claims (12)

  1. 画像からオブジェクトのシルエットを抽出するシルエット抽出装置において、
    画像ごとに各画素の特徴量に基づいて当該画像全体のグローバル統計値を計算する手段と、
    前記画像を複数の局所領域に分割する際の各局所領域のサイズを前記グローバル統計値に基づいて決定する手段と、
    前記画像を前記決定したサイズで複数の局所領域に分割する手段と、
    前記局所領域ごとに各画素の特徴量に基づいて当該各局所領域に固有のローカル統計値を計算する手段と、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定する手段と、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエットを抽出する手段とを具備したことを特徴とするシルエット抽出装置。
  2. 前記グローバル統計値が、画像における各画素の特徴量の分散であることを特徴とする請求項1に記載のシルエット抽出装置。
  3. 前記各画素の特徴量がピクセル強度であることを特徴とする請求項1または2に記載のシルエット抽出装置。
  4. 前記グローバル統計値が、画像における各画素の特徴量の分散であり、前記グローバル統計値に基づいて決定する手段は、分散が大きいほど局所領域のサイズを小さくすることを特徴とする請求項1ないし3のいずれかに記載のシルエット抽出装置。
  5. コンピュータが画像からオブジェクトのシルエットを抽出するシルエット抽出方法において、
    画像ごとに各画素の特徴量に基づいて当該画像全体のグローバル統計値を計算し、
    前記画像を複数の局所領域に分割する際の各局所領域のサイズを前記グローバル統計値に基づいて決定し、
    前記画像を前記決定したサイズで複数の局所領域に分割し、
    前記局所領域ごとに各画素の特徴量に基づいて当該各局所領域に固有のローカル統計値を計算し、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定し、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエットを抽出することを特徴とするシルエット抽出方法。
  6. 前記グローバル統計値が、画像における各画素の特徴量の分散であることを特徴とする請求項5に記載のシルエット抽出方法。
  7. 前記各画素の特徴量がピクセル強度であることを特徴とする請求項5または6に記載のシルエット抽出方法。
  8. 前記グローバル統計値が、画像における各画素の特徴量の分散であり、分散が大きいほど局所領域のサイズを小さくすることを特徴とする請求項5ないし7のいずれかに記載のシルエット抽出方法。
  9. 画像からオブジェクトのシルエットを抽出するシルエット抽出プログラムにおいて、
    画像ごとに各画素の特徴量に基づいて当該画像全体のグローバル統計値を計算する手順と、
    前記画像を複数の局所領域に分割する際の各局所領域のサイズを前記グローバル統計値に基づいて決定する手順と、
    前記画像を前記決定したサイズで複数の局所領域に分割する手順と、
    前記局所領域ごとに各画素の特徴量に基づいて当該各局所領域に固有のローカル統計値を計算する手順と、
    前記グローバル統計値と各局所領域のローカル統計値とに基づいて局所領域ごとに閾値を設定する手順と、
    局所領域ごとに、画像の各画素の特徴量と背景画像の対応する各画素の特徴量との差分を当該局所領域に固有の閾値と比較してシルエットを抽出する手順とを、コンピュータに実行させるシルエット抽出プログラム。
  10. 前記グローバル統計値が、画像における各画素の特徴量の分散であることを特徴とする請求項9に記載のシルエット抽出プログラム。
  11. 前記各画素の特徴量がピクセル強度であることを特徴とする請求項9または10に記載のシルエット抽出プログラム。
  12. 前記グローバル統計値が、画像における各画素の特徴量の分散であり、分散が大きいほど局所領域のサイズを小さくすることを特徴とする請求項9ないし11のいずれかに記載のシルエット抽出プログラム。
JP2017097953A 2017-05-17 2017-05-17 シルエット抽出装置、方法およびプログラム Active JP6811679B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097953A JP6811679B2 (ja) 2017-05-17 2017-05-17 シルエット抽出装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097953A JP6811679B2 (ja) 2017-05-17 2017-05-17 シルエット抽出装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018195047A JP2018195047A (ja) 2018-12-06
JP6811679B2 true JP6811679B2 (ja) 2021-01-13

Family

ID=64570861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097953A Active JP6811679B2 (ja) 2017-05-17 2017-05-17 シルエット抽出装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6811679B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258435A (zh) * 2020-10-19 2021-01-22 北京市商汤科技开发有限公司 图像处理方法和相关产品

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3636936B2 (ja) * 1999-06-16 2005-04-06 日本電信電話株式会社 濃淡画像の2値化方法および濃淡画像の2値化プログラムを記録した記録媒体
JP2002006474A (ja) * 2000-06-21 2002-01-09 Toppan Printing Co Ltd マスクパターン画像処理方法
JP2002157599A (ja) * 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
JP4571656B2 (ja) * 2007-03-30 2010-10-27 東芝テリー株式会社 画像処理装置および画像処理プログラム

Also Published As

Publication number Publication date
JP2018195047A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6914734B2 (ja) シルエット抽出装置、方法およびプログラム
US9773302B2 (en) Three-dimensional object model tagging
US9552655B2 (en) Image processing via color replacement
US8340422B2 (en) Generation of depth map for an image
US11589023B2 (en) Image processing apparatus, image processing method, and storage medium
CN109816766A (zh) 图像处理装置、图像处理方法及存储介质
CN112241960B (zh) 一种基于深度信息的抠图方法及***
JP6579868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN110276831B (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
KR20150020953A (ko) 영상 처리 방법 및 영상 처리 장치
CN104735435A (zh) 影像处理方法及电子装置
JP2018520531A (ja) 画像に対する深度マップを決定するための方法及び装置
JP7013144B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7374582B2 (ja) 画像処理装置、画像生成方法およびプログラム
JP6811679B2 (ja) シルエット抽出装置、方法およびプログラム
US11195322B2 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP5295044B2 (ja) マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP7405702B2 (ja) 仮想視点レンダリング装置、方法及びプログラム
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム
EP2975850A1 (en) Method for correcting motion estimation between at least two frames of a video sequence, corresponding device, computer program and non-transitory computer-readable medium
JP2011113177A (ja) 被写体3次元モデルを構築する方法およびプログラム
JP2020035218A (ja) 画像処理装置、方法及びプログラム
US11928831B2 (en) Information processing apparatus, shape data generation method, and storage medium
JP7012457B2 (ja) 画像処理装置、画像処理方法
EP4099270A1 (en) Depth segmentation in multi-view videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6811679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150