JP6787844B2 - オブジェクト抽出装置およびそのスーパーピクセルラベリング方法 - Google Patents

オブジェクト抽出装置およびそのスーパーピクセルラベリング方法 Download PDF

Info

Publication number
JP6787844B2
JP6787844B2 JP2017141780A JP2017141780A JP6787844B2 JP 6787844 B2 JP6787844 B2 JP 6787844B2 JP 2017141780 A JP2017141780 A JP 2017141780A JP 2017141780 A JP2017141780 A JP 2017141780A JP 6787844 B2 JP6787844 B2 JP 6787844B2
Authority
JP
Japan
Prior art keywords
category
superpixel
classified
classification
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141780A
Other languages
English (en)
Other versions
JP2019021243A5 (ja
JP2019021243A (ja
Inventor
強 要
強 要
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017141780A priority Critical patent/JP6787844B2/ja
Publication of JP2019021243A publication Critical patent/JP2019021243A/ja
Publication of JP2019021243A5 publication Critical patent/JP2019021243A5/ja
Application granted granted Critical
Publication of JP6787844B2 publication Critical patent/JP6787844B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、カメラ画像からオブジェクトを抽出するオブジェクト抽出装置およびそのスーパーピクセルラベリング方法に係り、特に、少ない処理負荷でスーパーピクセルを高い精度でラベリングすることができ、このラベリング結果に基づいてカメラ画像からオブジェクトを正確に抽出できるオブジェクト抽出装置およびそのスーパーピクセルラベリング方法に関する。
特許文献1には、入力されたカメラ画像を多数のスーパーピクセルに分割し、対応するオブジェクトマスクに基づいて画像内の各スーパーピクセルを「オブジェクト」または「背景」のいずれかに分類してラベル付けし、ラベリング結果に基づいてオブジェクトを抽出する技術が開示されている。
非特許文献1には、3Dボクセルの投影を複数の較正されたカメラに照らし合わせることによって、各3Dボクセルを「物体」または「背景」にラベル付けするための3D視覚交差法ベースのモデルが開示されている。非特許文献2には、グラフ理論に基づくエネルギー最適化手法が開示されている。
特願2017- 97953号
Hiroshi Sankoh, Mehrdad Panahpour Tehrani, Sei Naito, "Method and program for extracting silhouette image and method and program for constructing three dimensional model", US 8363941 B2 Rother, C., Kolmogorov, V., & Blake, A. (2004, August). Grabcut: Interactive foreground extraction using iterated graph cuts. In ACM transactions on graphics (TOG) (Vol. 23, No. 3, pp. 309-314). ACM.
特許文献1では、「オブジェクト」および「背景」のいずれにも明確に分類できない「不明」の取り扱いが考慮されていない。
非特許文献1では、3Dボクセルのラベリングがピクセルまたはボクセルレベルで行われるので非常に敏感であり、抽出されたマスク内に不足領域や不連続領域が生じ得る。したがって、不要な画素の除去と欠落した画素の復元とのトレードオフを回避することができなかった。
非特許文献2では、初期オブジェクト領域と背景領域の割り当てを必要とし、単一のオブジェクト抽出であれば問題ないものの、複数のオブジェクトがある場合は満足のいく結果が得られない。また、物体内部の色分布と背景の色分布が類似していると、物体内部のテクスチャが背景とみなされて除去され易くなり、抽出されたマスクの領域が欠落しまう。
本発明の目的は、上記の技術課題を解決し、少ない処理負荷でスーパーピクセルを高い精度で分類、ラベリングすることができ、このラベリング結果に基づいてカメラ画像からオブジェクトを正確に抽出できるオブジェクト抽出装置およびそのスーパーピクセルラベリング方法を提供することにある。
上記の目的を達成するために、本発明は、画像からオブジェクトを抽出するオブジェクト抽出装置において、画像のオブジェクトマスクMkを取得する手段と、画像を複数のスーパーピクセルに分割する手段と、各スーパーピクセルをオブジェクトマスクMkに基づく第1分類手法により、「オブジェクト」、「背景」および「不明」のいずれかに分類する第1分類手段と、「不明」に分類された各スーパーピクセルを「オブジェクト」または「背景」に分類する不明分類手段と、各分類結果に基づいてオブジェクトマスクMkを見直す手段とを具備し、見直し後のオブジェクトマスクMkに基づいてオブジェクトを抽出するようにした。
本発明によれば、以下のような効果が達成される。
(1) 第1分類手法によりカテゴリ「不明」に分類されたスーパーピクセルに対してのみ、追加的に他の分類手法を適用するので、全てのスーパーピクセルに対して選択性の高い、換言すれば計算負荷の大きい分類手法を適用する場合に較べて、カテゴリ分類に係る処理負荷を軽減できる。
(2) 第1分類手法によりカテゴリ「不明」に分類されたスーパーピクセルに対して、不明原因である可能性の高い「マスク精度」および「スーパーピクセル分割ミス」に対して選択性の高い分類手法が適用されるので、精度の高い分類、ラベリングが可能になる。
(3)「オブジェクト」に固有のヒストグラムおよび「背景」に固有のヒストグラムに基づいて、「不明」に分類されたスーパーピクセルの特徴ベクトルが「オブジェクト」である確率および「背景」である確率を求めて分類、ラベリングを行うので、定量的な閾値に拠らない適応的で高精度の分類が可能になる。
本発明を適用したオブジェクト抽出装置のブロック図である。 カメラ画像の一例を示した図である。 オブジェクトマスクMkの一例を示した図である。 本発明の第1実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図である。 第1分類部(40)による分類結果の一例を示した図である。 「オブジェクト」、「背景」および「不明」の各分類結果をカメラ画像との比較で示した図である。 スーパーピクセルの再分割方法を示した図である。 第1分類手法によるスーパーピクセルpiの分類手順を示したフローチャートである。 第2分類手法によるスーパーピクセルpiの分類手順を示したフローチャートである。 第3分類手法によるスーパーピクセルpiの分類手順を示したフローチャートである。 本発明の第2実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図である。 第4分類手法によるスーパーピクセルpiの分類手順を示したフローチャートである。 本発明の第3実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図である。 本発明の第4実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用したオブジェクト抽出装置の概要を示したブロック図である。本発明のオブジェクト抽出装置は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成しても良い。
多視点画像入力部10は、オブジェクトObjを異なる視点で撮影する複数台のカメラCak(Ca1,Ca2…)から、図2に一例を示したカメラ画像(動画像を含む)を視点ごとに所定の周期で取得する。オブジェクトマスク生成部20は、オブジェクトが存在しない環境下で撮影した背景映像をカメラ画像から減じて差分画像を取得し、この差分画像の各ピクセルを所定の閾値と比較する閾値処理により、図3に一例を示したオブジェクトマスクMkを生成する。
スーパーピクセル分割部30は、カメラ画像を多数のスーパーピクセルp1,p2…pk(以下、piで代表する)に分割する。スーパーピクセルpiとは、輝度や色等の性質が比較的似ている複数のピクセルをまとめた、知覚的に意味のある小領域である。スーパーピクセルを算出するための手法としては、Graph-based手法、Mean Shift手法あるいはNormalized Cut手法などが知られている。各スーパーピクセルpiはオブジェクトマスクを定義するために有益な境界情報を有している。
第1分類部40は、後に詳述するように、各スーパーピクセルpiに占めるオブジェク領域の割合(占有率ρi)をオブジェクトマスクMkに基づいて求め、各スーパーピクセルpiを占有率ρiに基づいて「オブジェクト(第1類)」、「背景(第2類)」および「不明(第3類)」のいずれかのカテゴリに分類する第1分類手法を採用する。
不明分類部100は、第1分類部40が「不明」に分類した各スーパーピクセルのみを対象に、前記第1分類手法とは異なる1ないし複数の分類手法を適用、併用して「オブジェクト」または「背景」に分類する。本実施形態では、不明分類部100が後述する第2分類部50,第3分類部60および/または第4分類部80を有する。
オブジェクトマスク見直し部70は、前記分類結果に基づいて前記オブジェクトマスクMkを見直す。本実施形態では、「オブジェクト」ラベルLobjを付されたスーパーピクセルpi内の各画素に対応する画素範囲がオブジェクト領域に修正され、背景ラベルLbgを付されたスーパーピクセルpi内の各画素に対応する画素範囲が背景領域に修正される。
図4は、本発明の第1実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表している。本実施形態では、前記不明分類部100が第2分類部50および第3分類部60を備えている。
第1分類部40において、オブジェクト占有率計算部401は、スーパーピクセルpiごとに当該スーパーピクセルpi内の各画素に対応するオブジェクトマスクMkの画素がオブジェクト領域であるか否かに基づいて、各スーパーピクセルpiに占めるオブジェクト領域の割合を示すオブジェクト占有率ρiを計算する。
オブジェクト識別部402は、スーパーピクセルpiごとに、そのオブジェクト占有率ρiを所定のオブジェクト識別閾値ρth1_objと比較し、次式(1)が成立すると当該スーパーピクセルpiをカテゴリ「オブジェクト」に分類する。
ρth1_obj<ρi<1 …(1)
背景識別部403は、スーパーピクセルpiごとに、そのオブジェクト占有率ρiを所定の背景識別閾値ρth1_bgと比較し、次式(2)が成立すると当該スーパーピクセルpiをカテゴリ「背景」に分類する。
0<ρi<ρth1_bg …(2)
ラベリング部404は、カテゴリが「オブジェクト」のスーパーピクセルpiに「オブジェクト」ラベルLobjを付し、カテゴリが「背景」のスーパーピクセルpiに背景ラベルLbgを付する。なお、「オブジェクト」および「背景」のいずれのカテゴリにも分類されなかったスーパーピクセルpiはカテゴリ「不明」に分類され、この時点ではラベル付けが行われない。
図5は、前記第1分類部40による分類結果の一例を示した図であり、白色部分(画素値=255)がカテゴリ「オブジェク」に分類された領域、黒色部分(画素値=0)がカテゴリ「背景」に分類された領域である。また、一部拡大して示したように、主に「オブジェク」領域と「背景」領域との境界に位置するグレー部分が、「オブジェクト」および「背景」のいずれにも分類されなかったカテゴリ「不明」の領域である。
図6は、「オブジェクト」、「背景」および「不明」の各分類結果をカメラ画像との比較で示した図である。本発明の発明者らは、スーパーピクセルpiの一部がカテゴリ「不明」に分類される原因が、カテゴリ「不明(1)」のように、スーパーピクセル分割のミスによるものと、カテゴリ「不明(2)」のように、オブジェクトマスクの精度によるものとに大別できることを新たに知見した。
そこで、本発明ではカテゴリ「不明」の領域に対してのみ更に、マスク精度に関わらず選択性の高い高精度の分類を可能にする第2分類手法、およびスーパーピクセル分割のミスに関わらず選択性の高い高精度の分類を可能にする第3分類手法を適用することにより、「不明」領域を「オブジェクト」および「背景」のいずれかに分類するようにしている。
図4へ戻り、第2分類部50は、カテゴリ「不明」のスーパーピクセルpiのみを対象に、特に「不明(2)」の分類の好適な第2分類手法を適用することで「オブジェクト」または「背景」のいずれかのカテゴリに分類する。そして、カテゴリ「オブジェクト」に分類されたスーパーピクセルpiにはオブジェクトラベルLobjを付し、カテゴリ「背景」に分類されたスーパーピクセルには背景ラベルLbgを付するようにしている。
第2分類部50において、オブジェクトマスク修正部501は、後に詳述するように、前記オブジェクトマスクMkとは視点の異なる複数の他のカメラ画像のオブジェクトマスクMk-1,Mk+1に基づいて前記オブジェクトマスクMkを修正する。
分類再試行部502は、カテゴリが「不明」の各スーパーピクセルpiを前記修正後のオブジェクトマスクMk'に基づいて「オブジェクト」、「背景」および「不明」のいずれかのカテゴリに分類する。ラベリング部503は、カテゴリ「オブジェクト」のスーパーピクセルpiにオブジェクトラベルLobjを付し、カテゴリ「背景」のスーパーピクセルpiに背景ラベルLbgを付する。
第3分類部60は、前記第2分類部50による分類後も依然としてカテゴリ「不明」のスーパーピクセルpiを対象に、特に「不明(1)」の分類に好適な第3分類手法を適用することで「オブジェクト」または「背景」のいずれかのカテゴリに分類する。そして、カテゴリ「オブジェクト」のスーパーピクセルにオブジェクトラベルLobjを付し、カテゴリ「背景」のスーパーピクセルに背景ラベルLbgを付する。
第3分類部60において、スーパーピクセル再分割部601は、図7に示したように、カテゴリが「不明(1)」のスーパーピクセルpiを更に複数のスーパーピクセルに分割する。再分割部602は、各スーパーピクセルpiを、そのオブジェクト占有率ρiに基づいて「オブジェクト」または「背景」に分類する。
そして、依然として「不明」のスーパーピクセルについてはスーパーピクセル分割を繰り返し、最終的に全てのスーパーピクセルを「オブジェクト」または「背景」に分類する。ラベリング部603は、カテゴリ「オブジェクト」のスーパーピクセルpiにオブジェクトラベルLobjを付し、カテゴリ「背景」のスーパーピクセルpiに背景ラベルLbgを付する。
図8は、前記第1分類部40によるスーパーピクセルpiの分類手順を示したフローチャートである。
ステップS41では、スーパーピクセル分割部30からカメラ画像のスーパーピクセルpiが取得される。ステップS42では、オブジェクトマスク生成部20からオブジェクトマスクMkが取得される。ステップS43では、オブジェクト占有率計算部401において、スーパーピクセルpiごとにオブジェクトマスクMkに基づいてオブジェクト占有率ρiが計算される。
ステップS44では、オブジェクト識別部402が、スーパーピクセルpiの一つに注目し、今回の注目スーパーピクセルpiがオブジェクト領域であるか否かを、オブジェクト識別閾値ρth1_objとオブジェクト占有率ρiとの比較結果に基づいて判断する。本実施形態では、上式(1)が成立すればオブジェクト領域と識別されてステップS45へ進み、今回の注目スーパーピクセルpiがカテゴリ「オブジェクト」に分類される。
これに対して、上式(1)が成立しなければステップS46へ進み、背景識別部403が、今回の注目スーパーピクセルpiが背景領域であるか否かを、背景識別閾値ρth1_bgとオブジェクト占有率ρiとの比較結果に基づいて判断する。本実施形態では、上式(2)が成立すれば背景領域と識別されてステップS47へ進み、今回の注目スーパーピクセルpiがカテゴリ「背景」に分類される。
ステップS48では、前記ラベリング部404により、カテゴリ「オブジェクト」のスーパーピクセルにオブジェクトラベルLobjが付され、カテゴリが「背景」のスーパーピクセルに背景ラベルLbgが付される。「オブジェクト」および「背景」のいずれにも分類されなかったスーパーピクセルはカテゴリ「不明」に分類され、ラベル付けは行わない。
ステップS49では、全てのスーパーピクセルpiについて上記の分類処理が完了したか否かが判断される。完了していなければステップS44へ戻り、注目するスーパーピクセルpiを切り換えながら上記の各処理が繰り返される。
図9は、前記第2分類部50によるカテゴリ「不明」のスーパーピクセルpiを対象とした分類手順を示したフローチャートである。
ステップS51では、「オブジェクト」および「背景」のいずれにも分類されなかったカテゴリ「不明」のスーパーピクセルpiが取得される。ステップS52では、他のカメラ画像に関して生成された複数のオブジェクトマスクMk-1,Mk+1およびそのカメラパラメータが取得される。
ステップS53では、オブジェクトマスクMkおよび各参照用のオブジェクトマスク Mk-1,Mk+1に基づいて3Dビジュアルハルが構築され、マスクMkにおけるカテゴリ「不明」のスーパーピクセルの各座標を各参照用のオブジェクトマスクMk-1,Mk+1へ投影することで対応画素が識別される。ステップS54では、前記オブジェクトマスク修正部501により、対応画素との比較でマスクMkが修正される。
本実施形態では、オブジェクトマスクMkの座標x,yにおける画素値をMk(x,y)、オブジェクトマスクMk-1の対応座標xk-1,yk-1における画素値をMk-1(x k-1,y k-1)、オブジェクトマスクMk+1の対応座標xk+1,yk+1における画素値をMk+1(x k+1,y k+1)としたとき、次式に基づいてオブジェクトマスクMkが修正される。
すなわち、参照用のオブジェクトマスクMk-1,Mk+1の画素値がいずれも0(背景)の座標については、オブジェクトマスクMkの現画素値に関わらず、その画素値が「0」に書き替えられる。同様に、参照用のオブジェクトマスクMk-1,Mk+1の画素値がいずれも255(オブジェクト)の座標については、オブジェクトマスクMkの現画素値に関わらず、その画素値が「255」に書き替えられる。参照オブジェクトマスクMk-1,Mk+1の画素値が一致しない場合はオブジェクトマスクMkの現画素値が維持される。
ステップS55では、修正後のオブジェクトマスクMk'に基づいて、カテゴリが「不明」のスーパーピクセルpiごとにオブジェクト占有率ρiが再計算される。
ステップS56では、スーパーピクセルpiの一つに注目して、今回の注目スーパーピクセルpiがオブジェクト領域に対応しているか否かが、オブジェクト判定閾値ρth2_objとオブジェクト占有率ρiとの比較結果に基づいて判断される。本実施形態では、次式(4)が成立すればオブジェクト領域と識別されてステップS57へ進み、今回の注目スーパーピクセルpiがカテゴリ「オブジェクト」に分類される。
ρth2_obj<ρi<1 …(4)
これに対して、上式(4)が成立しなければステップS58へ進み、今回の注目スーパーピクセルpiが背景領域に対応しているか否かが、背景判定閾値ρth2_bgとオブジェクト占有率ρiとの比較結果に基づいて判断される。本実施形態では、次式(5)が成立すれば背景領域と識別されてステップS59へ進み、今回の注目スーパーピクセルpiがカテゴリ「背景」に分類される。
0<ρi<ρth2_bg …(5)
ステップS60では、前記ラベリング部503により、カテゴリ「オブジェクト」のスーパーピクセルにオブジェクトラベルLobjが付され、カテゴリ「背景」のスーパーピクセルに背景ラベルLbgが付される。「オブジェクト」および「背景」のいずれにも分類されなかったスーパーピクセルはカテゴリ「不明」のままでラベル付けは行わない。
ステップS61では、カテゴリ「不明」の全てのスーパーピクセルについて上記の分類処理が完了したか否かが判断される。完了していなければステップS56へ戻り、注目する「不明」のスーパーピクセルpiを切り換えながら上記の各処理が繰り返される。
図10は、前記第3分類部60によるカテゴリ「不明」のスーパーピクセルを対象とした分類手順を示したフローチャートである。
ステップS70では、依然として「不明」のスーパーピクセルpiが取得される。ステップS71では、前記図7(a)に示したように、前記スーパーピクセルpiに外接矩形が設定される。ステップS72では、前記図7(b)に示したように、前記外接矩形内が複数のスーパーピクセルに分割される。
ステップS73では、スーパーピクセルpiごとにオブジェクト占有率ρiが計算される。ステップS74では、オブジェクト占有率ρiとオブジェクト識別閾値および背景識別閾値との関係に基づいて、上記と同様に、各スーパーピクセルpiが「オブジェクト」、「背景」、「不明」のいずれかに分類されてラベリングされる。
ステップS75では、「不明」のスーパーピクセルpiが十分に少なくなったか否かが判断される。十分に少なくなっていなければステップS71へ戻り、以前として「不明」のスーパーピクセルpiを更にスーパーピクセルに分解して上記の各処理が繰り返される。
これに対して、「不明」のスーパーピクセルpiが十分に少なくなるとステップS76へ進み、前記ラベリング部603により、カテゴリ「オブジェクト」のスーパーピクセルにオブジェクトラベルLobjが付され、カテゴリ「背景」のスーパーピクセルに背景ラベルLbgが付される。「オブジェクト」および「背景」のいずれにも分類されなかったスーパーピクセルはカテゴリ「不明」のままでラベル付けは行わない。
ステップS77では、前記ステップS70で抽出された全ての「不明」のスーパーピクセルpiについて上記の処理が完了したか否かが判断される。完了していなければステップS70へ戻り、注目する「不明」のスーパーピクセルpiを切り換えながら上記の各処理を繰り返す。
本実施形態によれば、第1分類手法によりカテゴリ「不明」に分類されたスーパーピクセルに対してのみ、追加的に他の分類手法を適用するので、全てのスーパーピクセルに対して選択性の高い、換言すれば計算負荷の大きい分類手法を適用する場合に較べて、カテゴリ分類に係る処理負荷を軽減できる。
また、本実施形態によれば、第1分類手法によりカテゴリ「不明」に分類されたスーパーピクセルに対して、不明原因である可能性の高い「マスク精度」および「スーパーピクセル分割ミス」に対して選択性の高い分類手法が適用されるので、精度の高い分類、ラベリングが可能になる。
図11は、本発明の第2実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表している。本実施形態は、前記不明分類部100を第4分類部80で構成し、第1分類部40が「不明」と判断したスーパーピクセルpiを対象に第4分類部80が再分類を実行する点に特徴がある。
第4分類部80において、特徴ベクトル生成部801は、全てのスーパーピクセルpiについて、その特徴ベクトルを構築する。本実施形態では、スーパーピクセルpiがLab色空間に変換され、L-a-b色空間におけるスーパーピクセルpiの全ピクセルの平均値μl,μa,μbおよびLab色空間内の色成分の共分散ρll,ρaa,ρbb,ρla,ρlb,ρabが求められ、これらを特徴量とするベクトルVpi={μl,μa,μb,ρll,ρaa,ρbb,ρla,ρlb,ρab}が構築される。
オブジェクトヒストグラム生成部802は、カテゴリ「オブジェクト」に分類された全てのスーパーピクセルpiに関して、各特徴ベクトルの特徴量を個別に投票することで、各特徴量の分布を定量的に示すオブジェクトヒストグラムHistobjを生成する。
背景ヒストグラム生成部803は、カテゴリ「背景」に分類された全てのスーパーピクセルpiに関して、各特徴ベクトルの特徴量を個別に投票することで、各特徴量の分布を定量的に示す背景ヒストグラムHistbgを生成する。
確率計算部804は、カテゴリ「不明」の各スーパーピクセルpiの特徴ベクトルを、オブジェクトヒストグラムHistobjおよび背景ヒストグラムHistbgと比較することで、カテゴリ「不明」のスーパーピクセルpiごとに、オブジェクトである確率Robjおよび背景である確率Rbgを計算する。
判定部805は、確率Robj>確率Rbgのスーパーピクセルpiはカテゴリ「オブジェクト」に分類し、確率Robj≦確率Rbgのスーパーピクセルpiはカテゴリ「背景」に分類する。ラベリング部806は、カテゴリ「オブジェクト」のスーパーピクセルpiに「オブジェクト」ラベルLobjを付し、カテゴリ「背景」のスーパーピクセルpiに背景ラベルLbgを付する。
図12は、前記第4分類部80による分類手順を示したフローチャートであり、ステップS81では、「オブジェクト」、「背景」および「不明」の各カテゴリに分類されたスーパーピクセルpiが取得される。ステップS82では、特徴ベクトル生成部801により、全てのスーパーピクセルpiについて特徴ベクトルVpiが生成される。
本実施形態では、L-a-b色空間におけるスーパーピクセルpiの全ピクセルの平均値μl,μa,μbおよびLab色空間内の色成分の共分散ρll,ρaa,ρbb,ρla,ρlb,ρabを特徴量とする特徴ベクトルVpi={μl,μa,μb,ρll,ρaa,ρbb,ρla,ρlb,ρab}が生成される。
ステップS83では、オブジェクトヒストグラム生成部802が、カテゴリ「オブジェクト」に分類された全てのスーパーピクセルpiに関して、その特徴ベクトルの各特徴量を個別に投票することでオブジェクトヒストグラムHistobjを生成する。同様に、背景ヒストグラム生成部803が、カテゴリ「背景」に分類された全てのスーパーピクセルpiに関して、その特徴ベクトルの各特徴量を個別に投票することで背景ヒストグラムHistbgを生成する。
ステップS84では、確率計算部804が、カテゴリ「不明」の各スーパーピクセルpiの特徴ベクトルを、オブジェクトヒストグラムHistobjおよび背景ヒストグラムHistbgと比較することで、カテゴリ「不明」の各スーパーピクセルpiがオブジェクトである確率Robjおよび背景である確率Rbgを計算する。
ステップS85では、確率Robj,確率Rbgの大小関係が比較され、Robj>Rbgであれば、ステップS86へ進んでカテゴリ「オブジェクト」に分類される。これに対して、Robj≦Rbgであれば、ステップS87へ進んでカテゴリ「背景」に分類される。ステップS88では、ラベリング部806が、カテゴリ「オブジェクト」のスーパーピクセルpiに「オブジェクト」ラベルLobjを付し、カテゴリ「背景」のスーパーピクセルpiに背景ラベルLbgを付する。
本実施形態によれば、「オブジェクト」に固有のヒストグラムおよび「背景」に固有のヒストグラムに基づいて、「不明」に分類されたスーパーピクセルの特徴ベクトルが「オブジェクト」である確率および「背景」である確率を求めて分類、ラベリングを行うので、定量的な閾値に拠らない適応的で高精度の分類が可能になる。
図13は、本発明の第3実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表している。本実施形態は、前記不明分類部100が第2分類部50および第4分類部80を具備し、第1分類部40がカテゴリ「不明」に分類したスーパーピクセルに対して第2分類部50が再分類を実施し、第2分類部50がカテゴリ「不明」に分類したスーパーピクセルに対して第4分類部80が更に再分類を実施する点に特徴がある。
図14は、本発明の第4実施形態に係るオブジェクトマスク抽出装置の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表している。本実施形態は、前記不明分類部100を第3分類部60で構成し、第1分類部40がカテゴリ「不明」に分類したスーパーピクセルに対して、第3分類部60が分類を実施する点に特徴がある。
10…多視点画像入力部,20…オブジェクトマスク生成部,30…スーパーピクセル分割部,40…第1分類部,50…第2分類部,60…第3分類部,70…オブジェクトマスク見直し部,80…第4分類部,401…オブジェクト占有率計算部,402…オブジェクト識別部,403…背景識別部,404…ラベリング部,501…オブジェクトマスク修正部,502…分類再試行部,503…ラベリング部,601…スーパーピクセル再分割部,602…再分割部,603…ラベリング部,801…特徴ベクトル生成部,802…オブジェクトヒストグラム生成部,803…背景ヒストグラム生成部,804…確率計算部,805…判定部,806…ラベリング部

Claims (14)

  1. 動画像を含む画像からオブジェクトを抽出するオブジェクト抽出装置において、
    前記画像のオブジェクトマスクMkを取得する手段(20)と、
    前記画像の各スーパーピクセルをオブジェクトマスクMkに基づく第1分類手法により第1類、第2類および第3類のいずれかに分類する第1分類手段(40)と、
    前記第3類に分類された各スーパーピクセルを前記第1分類手法とは異なる分類手法によりさらに分類する不明分類手段(100)と、
    前記各分類結果に基づいてオブジェクトマスクMkのオブジェクト領域および背景領域を修正することで見直す見直す手段(70)とを具備したことを特徴とするオブジェクト抽出装置。
  2. 前記不明分類手段は、前記第3類に分類されたスーパーピクセルを第1類,第2類および第3類のいずれかに分類する第2分類手段(50)を具備し、
    前記第2分類手段(50)は、
    前記画像と視点の異なる複数の画像のオブジェクトマスクMk-1,Mk+1に基づいて前記オブジェクトマスクMkを修正する手段(501)と、
    第3類のスーパーピクセルを前記修正後のオブジェクトマスクMk'に基づいて第1類,第2類および第3類のいずれかに分類する手段(502)とを具備したことを特徴とする請求項1に記載のオブジェクト抽出装置。
  3. 前記不明分類手段は、前記第3類に分類されたスーパーピクセルを第1類または第2類に分類する第3分類手段(60)を具備し、
    前記第3分類手段(60)は、
    第3類のスーパーピクセルを複数のスーパーピクセルに再分割する手段(601)と、
    再分割された各スーパーピクセルをオブジェクトマスクMkに基づいて第1類,第2類および第3類のいずれかに再分類する再分類手段(602)とを具備し、
    再分類後も第3類のスーパーピクセルを前記再分割及び再分類を繰り返すことを特徴とする請求項に記載のオブジェクト抽出装置。
  4. 前記不明分類手段はは、前記第2分類手段が第3類に分類したスーパーピクセルを第1類または第2類に分類する第3分類手段(60)を具備し、
    前記第3分類手段(60)は、
    第3類のスーパーピクセルを複数のスーパーピクセルに再分割する手段(601)と、
    再分割された各スーパーピクセルをオブジェクトマスクMkに基づいて第1類,第2類および第3類のいずれかに再分類する再分類手段(602)とを具備し、
    再分類後も第3類のスーパーピクセルを前記再分割及び再分類を繰り返すことを特徴とすることを特徴とする請求項に記載のオブジェクト抽出装置。
  5. 前記不明分類手段は、前記第3類に分類されたスーパーピクセルを第1類または第2類に分類する第4分類手段(80)を具備し、
    前記第4分類手段(80)は、
    スーパーピクセルごとに特徴ベクトルを生成する手段(801)と、
    第1類に分類された各スーパーピクセルの特徴ベクトルに基づいて第1類に固有のオブジェクトヒストグラムを生成する手段(802)と、
    第2類に分類された各スーパーピクセルの特徴ベクトルに基づいて第2類に固有の背景ヒストグラムを生成する手段(803)と、
    第3類に分類された各スーパーピクセルの特徴ベクトルを各ヒストグラムと比較して、当該各スーパーピクセルが第1類である確率および第2類である確率を計算する手段(804)と、
    前記各確率に基づいて、前記第3類に分類された各スーパーピクセルが第1類および第2類のいずれであるかを判定する判定手段(805)とを具備したことを特徴とする請求項1に記載のオブジェクト抽出装置。
  6. 前記不明分類手段は、前記第2分類手段が第3類に分類したスーパーピクセルを第1類または第2類に分類する第4分類手段(80)を具備し、
    前記第4分類手段(80)は、
    スーパーピクセルごとに特徴ベクトルを生成する手段(801)と、
    第1類に分類された各スーパーピクセルの特徴ベクトルに基づいて第1類に固有のオブジェクトヒストグラムを生成する手段(802)と、
    第2類に分類された各スーパーピクセルの特徴ベクトルに基づいて第2類に固有の背景ヒストグラムを生成する手段(803)と、
    第3類に分類された各スーパーピクセルの特徴ベクトルを各ヒストグラムと比較して、当該各スーパーピクセルが第1類である確率および第2類である確率を計算する手段(804)と、
    前記各確率に基づいて、前記第3類に分類された各スーパーピクセルが第1類および第2類のいずれであるかを判定する判定手段(805)とを具備したことを特徴とする請求項に記載のオブジェクト抽出装置。
  7. 前記第1分類手段(40)は、
    オブジェクトマスクMkに基づいてスーパーピクセルごとにオブジェクト占有率を計算する手段(401)と、
    オブジェクト占有率が所定のオブジェクト閾値を上回るスーパーピクセルを第1類に分類する手段(402)と、
    オブジェクト占有率が所定の背景閾値を下回るスーパーピクセルを第2類に分類する手段(403)とを具備し、
    第1類および第2類のいずれにも分類されないスーパーピクセルを第3類に分類することを特徴とする請求項1ないしのいずれかに記載のオブジェクト抽出装置。
  8. 前記見直し後のオブジェクトマスクMkに基づいてオブジェクトを抽出することを特徴とする請求項1ないしのいずれかに記載のオブジェクト抽出装置。
  9. 前記第1類、第2類および第3類が、それぞれ「オブジェクト」、「背景」および「不明」であることを特徴とする請求項1ないしのいずれかに記載のオブジェクト抽出装置。
  10. オブジェクト抽出装置のスーパーピクセルラベリング方法において、
    動画像を含む画像のオブジェクトマスクMkを取得し、
    前記画像を複数のスーパーピクセルに分割し、
    各スーパーピクセルをオブジェクトマスクMkに基づく第1分類手法により、第1類、第2類および第3類のいずれかに分類し、
    前記第3類に分類された各スーパーピクセルを前記第1分類手法とは異なる分類手法により第1類または第2類に分類し、
    前記各分類結果に基づいて各スーパーピクセルをラベリングすることを特徴とするオブジェクト抽出装置のスーパーピクセルラベリング方法。
  11. 前記第1分類手法とは異なる分類手法が第2分類手法を含み、
    前記第2分類手法は、
    前記画像と視点の異なる複数の画像のオブジェクトマスクMk-1,Mk+1に基づいて前記オブジェクトマスクMkを修正し、
    第3類のスーパーピクセルを前記修正後のオブジェクトマスクMk'に基づいて第1類、第2類および第3類のいずれかに分類することを特徴とする請求項10に記載のオブジェクト抽出装置のスーパーピクセルラベリング方法。
  12. 前記第1分類手法とは異なる分類手法が第3分類手法を含み、
    前記第3分類手法は、
    第3類のスーパーピクセルを複数のスーパーピクセルに再分割し、
    再分割された各スーパーピクセルをオブジェクトマスクMkに基づいて第1類,第2類および第3類のいずれかに再分類し、
    再分類後も第3類のスーパーピクセルを前記再分割及び再分類を繰り返すことを特徴とする請求項10に記載のオブジェクト抽出装置のスーパーピクセルラベリング方法。
  13. 前記第1分類手法とは異なる分類手法が第4分類手法を含み、
    前記第4分類手法が段(80)は、
    スーパーピクセルごとに特徴ベクトルを生成し、
    第1類に分類された各スーパーピクセルの特徴ベクトルに基づいて第1類に固有のオブジェクトヒストグラムを生成し、
    第2類に分類された各スーパーピクセルの特徴ベクトルに基づいて第2類に固有の背景ヒストグラムを生成し、
    第3類に分類された各スーパーピクセルの特徴ベクトルを各ヒストグラムと比較して、当該各スーパーピクセルが第1類である確率および第2類である確率を計算し、
    前記各確率に基づいて、前記第3類に分類された各スーパーピクセルが第1類および第2類のいずれであるかを判定することを特徴とする請求項10に記載のオブジェクト抽出装置のスーパーピクセルラベリング方法。
  14. 前記第1類、第2類および第3類が、それぞれ「オブジェクト」、「背景」および「不明」であることを特徴とする請求項10ないし13のいずれかに記載のスーパーピクセルラベリング方法。
JP2017141780A 2017-07-21 2017-07-21 オブジェクト抽出装置およびそのスーパーピクセルラベリング方法 Active JP6787844B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141780A JP6787844B2 (ja) 2017-07-21 2017-07-21 オブジェクト抽出装置およびそのスーパーピクセルラベリング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141780A JP6787844B2 (ja) 2017-07-21 2017-07-21 オブジェクト抽出装置およびそのスーパーピクセルラベリング方法

Publications (3)

Publication Number Publication Date
JP2019021243A JP2019021243A (ja) 2019-02-07
JP2019021243A5 JP2019021243A5 (ja) 2019-08-22
JP6787844B2 true JP6787844B2 (ja) 2020-11-18

Family

ID=65355667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141780A Active JP6787844B2 (ja) 2017-07-21 2017-07-21 オブジェクト抽出装置およびそのスーパーピクセルラベリング方法

Country Status (1)

Country Link
JP (1) JP6787844B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3803678A1 (en) * 2018-05-25 2021-04-14 Koninklijke Philips N.V. Person identification systems and methods
KR102308381B1 (ko) * 2020-11-09 2021-10-06 인그래디언트 주식회사 유연한 슈퍼픽셀에 기초한 의료 영상 라벨링 방법 및 이를 위한 장치
KR102546070B1 (ko) * 2021-06-03 2023-06-20 순천대학교 산학협력단 타임 랩스 영상의 노이즈 제거 방법
CN113822904B (zh) * 2021-09-03 2023-08-08 上海爱乐慕健康科技有限公司 一种图像标注装置、方法及可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5045619B2 (ja) * 2008-09-08 2012-10-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2011034178A (ja) * 2009-07-30 2011-02-17 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
US8818028B2 (en) * 2010-04-09 2014-08-26 Personify, Inc. Systems and methods for accurate user foreground video extraction
JP2017091298A (ja) * 2015-11-12 2017-05-25 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
JP2019021243A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
JP6787844B2 (ja) オブジェクト抽出装置およびそのスーパーピクセルラベリング方法
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
CN110717489A (zh) Osd的文字区域的识别方法、装置及存储介质
EP3073443B1 (en) 3d saliency map
US20180109776A1 (en) Method, system and medium for improving the quality of 2d-to-3d automatic image conversion using machine learning techniques
EP3973507B1 (en) Segmentation for holographic images
Agrawal et al. MATLAB implementation of image segmentation algorithms
Yogeswaran et al. 3d surface analysis for automated detection of deformations on automotive body panels
Singhal et al. A comparative approach for image segmentation to identify the defected portion of apple
CN109255792A (zh) 一种视频图像的分割方法、装置、终端设备及存储介质
JP2019021243A5 (ja)
Sert A new modified neutrosophic set segmentation approach
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
JP2013080389A (ja) 消失点推定方法、消失点推定装置及びコンピュータプログラム
CN107704864A (zh) 基于图像对象性语义检测的显著目标检测方法
JP5896661B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Vallin Spina et al. User-steered image segmentation using live markers
JP2016081472A (ja) 画像処理装置、画像処理方法及びプログラム
JP6429323B2 (ja) オブジェクト抽出方法および装置
Boulmerka et al. Thresholding-based segmentation revisited using mixtures of generalized Gaussian distributions
Lin et al. Foreground object detection in highly dynamic scenes using saliency
Pankaj et al. Theoretical concepts and technical aspects on image segmentation
Pan et al. Accuracy improvement of deep learning 3D point cloud instance segmentation
JP7028099B2 (ja) 候補領域推定装置、候補領域推定方法、及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201029

R150 Certificate of patent or registration of utility model

Ref document number: 6787844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150