JP6611255B2 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6611255B2
JP6611255B2 JP2016115333A JP2016115333A JP6611255B2 JP 6611255 B2 JP6611255 B2 JP 6611255B2 JP 2016115333 A JP2016115333 A JP 2016115333A JP 2016115333 A JP2016115333 A JP 2016115333A JP 6611255 B2 JP6611255 B2 JP 6611255B2
Authority
JP
Japan
Prior art keywords
image
foreground
region
processing
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016115333A
Other languages
English (en)
Other versions
JP2017220098A (ja
Inventor
真理子 山口
峻司 細野
広夢 宮下
秀信 長田
朗 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016115333A priority Critical patent/JP6611255B2/ja
Publication of JP2017220098A publication Critical patent/JP2017220098A/ja
Application granted granted Critical
Publication of JP6611255B2 publication Critical patent/JP6611255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像中の任意の領域を抽出する技術に関する。
幅広い分野において、画像からの任意の領域を抽出したいという要求がある。テレビ局やスタジオ等では、グリーンバック背景に被写体を設置して被写体領域のみを抽出するクロマキー技術が古くから研究開発され、現在も広く普及し活用されている。被写体領域のみを抽出することにより、例えば抽出した被写体画像を別画像に貼り付けて現実ではあり得ないような画像を生成する等の付加価値を得ることができる。また、人工知能に被写体を認識させるための教師データとして蓄えることもできる。このような利点から、ヴァーチャルリアリティや映画におけるCG作成、ビックデータ生成などにおいて、クロマキー技術による領域の抽出技術は不可欠なものとなっている。
クロマキー技術では被写体の背景に単色のスクリーン等を用いる必要があるため、技術を利用できる場面が制限される。たとえば、屋外でのロケ映像や、競技場でのスポーツ競技においては用いることができない。この問題に対し、任意背景における任意領域の抽出技術が検討されている。例えば、背景差分を用いる方法(例えば、非特許文献1参照)、抽出対象領域および背景の、それぞれの色のヒストグラムを入力する方法(例:非特許文献2参照)、深度センサを用いる方法(例:非特許文献3参照)である。
波部斉、和田俊和、松山隆司、"照明変化に対して頑健な背景差分法"、一般社団法人情報処理学会、CVM115-3, 1999 Carsten Rother, Vladimir Kolmogorov, and Andrew Blake, "‘GrabCut’- Interactive foreground extraction using iterated graph cuts", ACM Transactios on Graphics (SIGGRAPH), 2004, Volume 23, Issue 3, p. 309-314 Ryan Crabb, Colin Tracey, Akshaya Puranik, and James David, "Real-time Foreground Segmentation via Range and Color Imaging", IEEE, CVPR Workshops, 2008
しかしながら、従来の技術には以下のような課題がある。
背景差分を用いた領域の抽出方法(以下、背景差分に基づく方法)では、抽出対象領域を含まない背景画像を事前に撮影し、抽出対象領域を含む画像と背景画像とを画素ごとに比較し、比較の結果得られる色あるいは輝度等の差分値に基づいて抽出対象領域を得る。このとき、抽出対象領域を含む画像中の背景部分の画素が、事前に撮影した背景画像の画素と等しく、かつ抽出対象領域の画素が背景画像中の画素と色成分や輝度において異なる場合、抽出対象領域の画素のみから、背景画像の画素との差分が得られ、抽出対象領域を正確に得ることが可能である。しかしながら、利用場面によっては、時刻による太陽光の変化、照明変動、または被写体の動きによる影の生成などから、事前に撮影した背景画像と抽出対象領域を含む画像における背景部分とに差分が生じ、抽出対象領域が正しく得られない。また、被写体の動きや被服によって、抽出対象領域中の画素が、事前に撮影した背景画像に含まれる画素と近い色・輝度になることがあり、この場合も正確に抽出対象領域を得られないことがある。
抽出対象を含む画像から、抽出対象領域および背景領域の画素を選択し、選択された画素の色のヒストグラムを求め、分布率に基づいて、抽出対象を含む画像の全画素に対し、抽出対象領域であるか、背景であるかの尤度を求め、この尤度に基づいて、抽出対象領域を得る方法が提案されている。この方法は、抽出対象領域と背景領域の境界を求めることが可能だが、色情報に基づく方法であるため、抽出対象領域および背景領域の画素の選択結果によっては、正確に抽出対象領域を得られないことがある。
抽出対象領域に存在する被写体までの距離を利用し、被写体のみを抽出対象領域として得る方法がある。この方法では、距離の情報によって抽出対象領域を判定するため、背景色と抽出対象領域の色が近い場合においても正確に抽出対象領域を得やすい。しかしながら、深度に基づく方法では、抽出対象でない領域に、抽出対象と等しい距離が検出された場合、これを分離することが困難である。また、深度を計測する際に赤外深度センサを用いた場合、計測できる深度情報は、画面内において疎であり、深度の結果のみを用いて、画像中の抽出対象領域を精緻に指定することが困難である。また、赤外深度センサは、黒い物体、毛皮、毛髪等に対して正確に測距することが原理的に困難であるため、被写体の種類によっては、正確に抽出対象領域を得ることができない場合がある。
このように、従来の技術では、任意の背景に対して、正確に抽出対象領域を得ることが困難となっている。
本発明は、上記に鑑みてなされたものであり、任意の背景下において、より正確に抽出対象領域を得ることを目的とする。
第1の本発明に係る画像処理装置は、画像を入力する画像入力手段と、前記画像の前景領域の輪郭に沿った前景領域の形状を入力し、前記画像から前記前景領域の形状に対応する画素を切り出して処理領域画像を取得する形状入力手段と、前記処理領域画像の前景領域側の画素と前記処理領域画像の背景領域側の画素から前記画像の各画素の前景らしさ又は背景らしさの確率を保持する初期確率場を生成する初期確率場生成手段と、前記処理領域画像から前記前景領域の輪郭線を抽出する輪郭線抽出手段と、前記輪郭線に基づいて重み付けた前記初期確率場をコスト関数としてグラフカットを用いて前記画像を前景領域と背景領域とに分離する分離手段と、を有し、前記輪郭線抽出手段は、前記処理領域画像から色や位置が近い画素をクラスタリングしたスーパーピクセルを計算し、スーパーピクセルの境界を表す境界画像を生成するスーパーピクセル計算手段、前記前景領域の形状に基づいて微分フィルタを生成し、前記境界画像に当該微分フィルタを適用して前記前景領域の輪郭候補画素を抽出する微分フィルタ処理手段と、前記輪郭候補画素間を前記スーパーピクセルの境界に沿って補間して前記前景領域の輪郭線を抽出する輪郭線補間手段と、を有することを特徴とする。
第2の本発明に係る画像処理方法は、
コンピュータによって実行される画像処理方法であって、画像を入力するステップと、前記画像の前景領域の輪郭に沿った前景領域の形状を入力するステップと、前記画像から前記前景領域の形状に対応する画素を切り出して処理領域画像を取得するステップと、前記処理領域画像の前景領域側の画素と前記処理領域画像の背景領域側の画素から前記画像の各画素の前景らしさ又は背景らしさの確率を保持する初期確率場を生成するステップと、前記処理領域画像から前記前景領域の輪郭線を抽出するステップと、前記輪郭線に基づいて重み付けた前記初期確率場をコスト関数としてグラフカットを用いて前記画像を前景領域と背景領域とに分離するステップと、を有し、前記輪郭線を抽出するステップは、前記処理領域画像から色や位置が近い画素をクラスタリングしたスーパーピクセルを計算し、スーパーピクセルの境界を表す境界画像を生成するステップと、前記前景領域の形状に基づいて微分フィルタを生成し、前記境界画像に当該微分フィルタを適用して前記前景領域の輪郭候補画素を抽出するステップと、前記輪郭候補画素間を前記スーパーピクセルの境界に沿って補間して前記前景領域の輪郭線を抽出するステップと、を有することを特徴とする。
第3の本発明に係る画像処理プログラムは、上記画像処理装置の各手段としてコンピュータを動作させることを特徴とする。
本発明によれば、任意の背景下において、より正確に抽出対象領域を得ることができる。
第1の実施の形態における画像処理装置の構成を示す機能ブロック図である。 処理領域画像と初期確率場を生成する処理の流れを示すフローチャートである。 元画像の例を示す図である。 元画像に前景領域の形状を入力した様子を示す図である。 前景領域の輪郭を抽出する処理の流れを示すフローチャートである。 処理領域画像から生成したスーパーピクセルの例を示す図である。 図6のスーパーピクセルから生成した二値画像の例を示す図である。 グリッドで区分けした二値画像と各グリッドの傾きを示す図である。 二値画像に対して8方向に直交する微分フィルタを生成して適用した例を示す図である。 元画像のマネキンの胸付近を拡大した図である。 図10の処理領域画像から抽出した輪郭候補の画素を示す図である。 図11からノイズを除去して得られた有為線の例を示す図である。 図12の有為線間を補間して得られた輪郭候補線の例を示す図である。 図13の輪郭候補線から輪郭線を抽出した例を示す図である。 有為線間を補間する処理の流れを示すフローチャートである。 スーパーピクセルにラベルを付与し、画素に隣接情報を付与した様子を示す図である。 有為線C1を伸ばした様子を示す図である。 有為線の統合処理の流れを示すフローチャートである。 有為線を統合する様子を示す図である。 島状のスーパーピクセルで分断された有為線を統合する様子を示す図である。 前景切り抜き処理の流れを示すフローチャートである。 前景領域を切り出した出力画像の例を示す図である。 第2の実施の形態における画像処理装置を含む画像認識システムの全体構成図である。 第2の実施の形態における画像処理装置の構成を示す機能ブロック図である。 第2の実施の形態における画像処理装置が特徴点を抽出する処理の流れを示すフローチャートである。 第2の実施の形態における画像認識装置の処理の流れを示すフローチャートである。 クライアント端末に表示される結果の例を示す図である。
[第1の実施の形態]
<画像処理装置の構成>
図1は、第1の実施の形態における画像処理装置の構成を示す機能ブロック図である。
図1に示す画像処理装置1は、入力部11、初期確率場生成部12、スーパーピクセル計算部13、微分フィルタ処理部14、形状候補抽出部15、処理確率場生成部16、グラフカット計算部17、及び領域論理演算部18を備える。画像処理装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは画像処理装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
入力部11は、前景領域と背景領域の分離を望む処理対象の元画像(カラー画像)と、元画像の前景領域の境界を含み、前景領域の大まかな形状を示す処理領域を入力し、元画像から処理領域に対応する画像を切り出して処理領域画像を生成する。入力部11は、入力した元画像を表示する。ユーザは、表示された元画像に対して、切り出したい前景領域の輪郭部分を太いペンツールなどでなぞって処理領域を入力する。例えば、タブレットなどのタッチセンサ内蔵ディスプレイ、ペンタブレットなどのフリーハンド入力機器が利用できる。入力部11は、ユーザがなぞった部分を元画像から切り出して処理領域画像とする。あるいは、元画像を撮影するときに、深度センサや温度センサを用いて抽出したい対象の形状を検出しておき、センサによって検出された形状に基づいて処理領域を設定してもよい。センサで処理領域の形状を入力する場合は、センサの値の閾値によって選択領域と非選択領域を定め、選択領域の画素値を1、非選択領域の画素値を0としたマスク画像を生成する。ただし、この画像は、対象の大まかな形状を再現しているものとする。
処理領域が閉領域である場合は、内側を前景領域、外側を背景領域とする。処理領域が開領域である場合は、ユーザからの入力又はセンサ情報によって、どちら側を前景領域とするのか決定する。
初期確率場生成部12は、処理領域画像の前景領域側のふちの画素を前景の一部、処理領域画像の背景領域側のふちの画素を背景の一部の教示として、コスト最小化問題を解くために必要な、元画像の各画素の「前景らしさ」「背景らしさ」の確率を持つ初期確率場を生成する。より正確には、初期確率場は、隣接する画素と自分が同じラベル(前景又は背景)をもつ確率をすべての画素がすべての隣り合った画素に対して持っている確率場である。初期確率場は、グラフカットで用いられる既知のコスト関数である。例えば、指定された領域から画素値ヒストグラムを作成しておき、任意の画素について、その画素値が前景あるいは背景に適切にラベル付けされたときに、全体が小さいコストになるようなコスト関数である。なお、本実施形態では、グラフカットの際に、初期確率場に対して前景領域の輪郭線の重み付けを行った処理確率場を用いる。
スーパーピクセル計算部13は、処理領域画像から色や位置が近い画素をクラスタリングしたスーパーピクセルを計算し、スーパーピクセルの境界を示す二値画像を生成する。
微分フィルタ処理部14は、スーパーピクセル計算部13が生成した二値画像に対して、処理領域の形状に基づいて生成した微分フィルタを適用し、前景領域の輪郭候補の画素を抽出する。
形状候補抽出部15は、前景領域の輪郭候補の画素間を補間して前景領域の輪郭線を抽出し、輪郭線上で隣り合う画素同士に無限小のコストを付与した輪郭候補確率場を生成する。
処理確率場生成部16は、初期確率場に対して輪郭候補確率場で重み付けて処理確率場を生成する。
グラフカット計算部17は、処理確率場をコスト関数として、元画像の全画素に前景又は背景のラベルを付けときにコストが最小となる組み合わせをグラフカットにより求めて、前景と背景を分離し、前景領域を抽出する。グラフカットとは、あらかじめ前景領域と背景領域の一部が与えられている条件下で、前景と背景が隣接する画素には画素値に違いがあるという仮定のもと、全画素に対して前景又は背景のラベルが適切に付けられた時に最小のコストとなるコスト関数を与え、コスト最小となるラベルの組み合わせを効率よく求める計算方法である。
領域論理演算部18は、元画像から前景領域に対応する画像を切り出して出力画像を生成する。
<画像処理装置の動作>
次に、第1の実施の形態における画像処理装置の処理の流れについて説明する。以下、画像処理装置1の処理を、処理領域画像の生成処理、輪郭の抽出処理、前景切り抜き処理の3つに分けて説明する。
<処理領域画像の生成処理>
まず、処理領域画像の生成処理について説明する。これらの処理は、入力部11と初期確率場生成部12によって行われる。
図2は、処理領域画像と初期確率場を生成する処理の流れを示すフローチャートである。
入力部11は、元画像を入力する(ステップS11)。図3に入力する元画像の例を示す。
入力部11は、元画像を画面上に表示し、前景領域の形状を入力する(ステップS12)。ユーザは、画面に表示された元画像の前景領域の輪郭をなぞるように大まかな形状を入力する。図4に前景領域の形状を入力した様子を示す。同図のマネキンの輪郭に沿った領域がユーザの入力した前景領域の形状である。
入力部11は、元画像からユーザがなぞった部分を処理領域画像として切り出す(ステップS13)。入力部11は、ユーザによって入力された前景領域の輪郭を含む領域をマスク画像として保存し、元画像とマスク画像とを論理演算することで、処理領域画像を生成する。生成された処理領域画像は、初期確率場生成部12及びスーパーピクセル計算部13へ送信される。
初期確率場生成部12は、処理領域画像から初期確率場を生成する(ステップS14)。図4の例では、処理領域は、マネキンを囲む閉領域である。初期確率場生成部12は、処理領域画像の内側を前景領域、処理領域画像の外側を背景領域として、前景領域の画素値と外側領域の画素値から初期確率場を生成する。
<輪郭の抽出処理>
続いて、輪郭の抽出処理について説明する。この処理は、スーパーピクセル計算部13、微分フィルタ処理部14、及び形状候補抽出部15によって行われる。
図5は、前景領域の輪郭を抽出する処理の流れを示すフローチャートである。
スーパーピクセル計算部13は、処理領域画像からスーパーピクセルを生成する(ステップS21)。図6に、処理領域画像から生成したスーパーピクセルの例を示す。同図中の同じ色の画素の集まりが1つのスーパーピクセルである。
スーパーピクセル計算部13は、各スーパーピクセルの輪郭を抽出した二値画像を生成する(ステップS22)。スーパーピクセル計算部13は、スーパーピクセルの境界に隣接する画素を抽出して二値画像を生成する。図7に、図6のスーパーピクセルから生成した二値画像の例を示す。
微分フィルタ処理部14は、処理領域画像の形状に基づいて微分フィルタを生成する(ステップS23)。微分フィルタ処理部14は、処理領域画像を任意のグリッドで区分けし、各グリッドにおける処理領域画像の外周の傾きを求め、各グリッドの傾きに対して垂直にたたむ込む方向の微分フィルタを生成する。図8に、グリッドで区分けした二値画像と各グリッドの傾きを示す。
微分フィルタ処理部14は、生成した微分フィルタを二値画像に適用する(ステップS24)。図9に、二値画像に対して8方向に直交する微分フィルタを生成して適用した例を示す。微分フィルタにより、前景領域の輪郭候補の画素が抽出される。
形状候補抽出部15は、輪郭候補の画素からノイズを除去する(ステップS25)。形状候補抽出部15は、輪郭候補の画素の連続性を求め、輪郭候補の画素が所定の閾値よりも連続している場合は有為線として残し、所定の閾値よりも短い場合はノイズとして除去する。図10は、元画像のマネキンの胸付近を拡大した図である。図11は、スーパーピクセル計算部13及び微分フィルタ処理部14により図10の処理領域画像から抽出した輪郭候補の画素を示す図である。図12に、図11からノイズを除去して得られた有為線の例を示す。
形状候補抽出部15は、有為線間をスーパーピクセルの境界に沿って補間する(ステップS26)。有為線間を補間する処理の詳細は後述する。図13に、図12の有為線間を補間して得られた輪郭候補線の例を示す。図13の符号20で示した箇所の輪郭候補線は短いので無視する。
形状候補抽出部15は、得られた輪郭候補線のうち、前景領域の輪郭に最も近い輪郭候補線を輪郭線として抽出する(ステップS27)。この処理では、最も尤もらしい輪郭線を抽出できればよい。例えば、前景領域の形状と長さや傾きが近似している輪郭候補線を抽出する。正しい輪郭線を抽出するために有為なものであればよい。ユーザに輪郭候補線を提示し、ユーザが任意に選択してもよい。あるいは、輪郭候補線に画素の重複を許し、最も輪郭候補線が通りやすい線を算出して輪郭線としてもよい。図14に、図13の輪郭候補線から輪郭線を抽出した例を示す。図14のマネキンに沿った白線が抽出した輪郭線である。
形状候補抽出部15は、輪郭線上で隣り合う画素同士に無限小のコストを付与した輪郭候補確率場を生成する(ステップS28)。
ここで、有為線間を補間する処理について説明する。
図15は、有為線間を補間する処理の流れを示すフローチャートである。
スーパーピクセル計算部13は、各スーパーピクセルにラベルを付与し(ステップS31)、スーパーピクセルの境界に隣接する画素に隣接情報をヒモ付ける(ステップS32)。図16に、スーパーピクセルにラベルを付与し、画素に隣接情報を付与した様子を示す。図16の点線の四角形が1画素を示し、実線がスーパーピクセルの境界を示す。図16には、ラベルL1,L2,L3を付与された3つのスーパーピクセルを示している。スーパーピクセルL1の画素P10〜P19、スーパーピクセルL2の画素P20〜P16、及びスーパーピクセルL3の画素P30〜P38がスーパーピクセルの境界に隣接する画素である。また、図16では、括弧内に自身の属するスーパーピクセルと隣接情報を示している。例えば、画素P10〜P14には(L1,L1:L3)という情報がヒモ付けられている。これは、画素P10〜P14は、スーパーピクセルL1に属し、スーパーピクセルL1,L3の境界に隣接していることを表している。さらに、図16には、2つの有為線C1,C2を示している。画素P10,P11,P30,P31は有為線C1に属し、画素P18,P19,P20,P21は有為線C2に属する。
形状候補抽出部15は、有為線の数が一定以下になるまで以下の有為線を統合する処理を繰り返す。
形状候補抽出部15は、有為線の先端の画素と同じ隣接情報を持つ画素を有為線に含める(ステップS33)。図16の有為線C1の先端の画素は、画素P11,P31である。有為線C1の先端の画素P11,P31から4近傍で同じ隣接情報を持つ画素を探して有為線C1に含める。画素P12は、画素P31の4近傍で同じ隣接情報(L1:L3)を持つ画素である。画素P12を有為線C1に含め、有為線C1の先端とする。続いて、画素P12の4近傍で同じ隣接情報を持つ画素P32を有為線C1に含める。以上の処理を繰り返して、有為線C1をスーパーピクセルL1,L3の境界に沿って伸ばしていく。図17は、有為線C1を伸ばした様子を示す図である。画素P12〜P14,P32〜P34が有為線C1に含まれている。有為線C2も、同様に処理されて、画素P16,P17,P22,P23を含めて伸ばされている。
続いて、形状候補抽出部15は、先端同士が近接した有為線の統合処理を行う(ステップS34)。
図18は、有為線の統合処理の流れを示すフローチャートである。
形状候補抽出部15は、まず、有為線が別の有為線と接触したか否か判定する(ステップS41)。有為線の先端の4近傍の画素が別の有為線の画素である場合に、有為線が接触したと判定する。
有為線が接触した場合(ステップS41のYES)、形状候補抽出部15は、有為線の先端の画素にヒモ付けられた隣接情報と別の有為線の画素にヒモ付けられた隣接情報が同じか否か判定する(ステップS42)。
隣接情報が同じ場合(ステップS42のYES)、形状候補抽出部15は、接触した有為線を統合する(ステップS43)。有為線を統合するときは、番号の小さい有為線に番号の大きい有為線を統合する。
隣接情報が異なる場合(ステップS42のNO)、形状候補抽出部15は、接触した有為線を統合しない。
一方、有為線が接触していない場合(ステップS41のNO)、形状候補抽出部15は、有為線の先端間の距離が一定以下であるか否か判定する(ステップS44)。
先端間の距離が一定以下である場合(ステップS44のYES)、形状候補抽出部15は、先端間の最短距離上の画素を含めて有為線を統合する(ステップS45)。図17の有為線C1,C2は先端が接触していないが、先端間が一定以下の距離である。そこで、形状候補抽出部15は、図19に示すように、有為線C1,C2の先端間の最短距離上の画素P15,P35を含めて、有為線C2を有為線C1に統合する。
先端間の距離が一定以下でない場合(ステップS44のNO)、形状候補抽出部15は、島状のスーパーピクセルで有為線が分断されたか否か判定する(ステップと46)。具体的には、形状候補抽出部15は、有為線それぞれの先端の画素が共通のスーパーピクセルに属しており、補間対象画素のスーパーピクセルが先端の画素それぞれの隣接情報の共通項であるか否か判定する。図20では、スーパーピクセルL1,L3の間に島状のスーパーピクセルL2が形成されて、スーパーピクセルL1,L3の境界に沿った有為線C1,C2が分断されている。図20において、有為線C1の先端の画素P10はスーパーピクセルL1に属し、有為線C2の先端の画素P11はスーパーピクセルL1に属している。つまり、有為線それぞれの先端の画素が共通のスーパーピクセルに属している。画素P10の4近傍の補間対象画素P20はスーパーピクセルL2に属している。画素P11の4近傍の補間対象画素P29はスーパーピクセルL2に属している。画素P10の隣接情報はL1:L2:L3であり、画素P11の隣接情報はL1:L2:L3である。つまり、補間対象画素P20,P29の属するスーパーピクセルL2は、先端の画素P10,P11の隣接情報の共通項である。したがって、図20の状況は、ステップS46でYESと判定される。
島状のスーパーピクセルで有為線が分断されたと判定した場合(ステップS46のYES)、形状候補抽出部15は、補間対象画素を最短距離でつなげて有為線を統合する(ステップS47)。このとき補間した画素の有意度を半値(例えば0.5)とする。有意度が半値の場合、初期確率場に対する影響を少なくする。図20では、スーパーピクセルL2の境界に沿って、補間対象画素P20,P29の間の画素P21〜P24,P25〜P28を有為線C1に含めて、有為線C2を有為線C1に統合する。
以上の処理により有為線を統合し、有為線の数を減らしていく。
<前景切り抜き処理>
続いて、前景切り抜き処理について説明する。この処理は、処理確率場生成部16、グラフカット計算部17、及び領域論理演算部18によって行われる。
図21は、前景切り抜き処理の流れを示すフローチャートである。
処理確率場生成部16は、初期確率場に対して輪郭候補確率場を重み付けて処理確率場を生成する(ステップS51)。重みの比率は、例えば、背景色と前景色が近い場合は形状に重みをおくなど、有為に定めることができる。初期確率場に対して輪郭候補確率場を重み付けることで、前景領域の一部と背景領域の一部の色ヒストグラムから生成した初期確率場に、前景領域の形状の重み付けを行うことができる。
グラフカット計算部17は、処理確率場をコスト関数として、コスト最小となるように元画像の全画素に前景又は背景のラベルを付与し、前景領域を抽出する(ステップS52)。このとき、処理の高速化のために、スーパーピクセル計算部13が生成したスーパーピクセルを用いて、スーパーピクセル間のグラフカットを行ってもよい。
領域論理演算部18は、前景領域と背景領域に二分化された1,0の二値画像を生成し、この二値画像と元画像とを論理演算することで、前景領域を切り出した出力画像を生成する(ステップS53)。図22に、前景領域を切り出した出力画像の例を示す。
以上説明したように、本実施の形態によれば、入力部11が、元画像の前景領域の境界を含み、前景領域の大まかな形状を示す処理領域を入力し、初期確率場生成部12が、処理領域画像の前景領域側を前景の一部、背景領域側を背景の一部の教示として、初期確率場を生成し、形状候補抽出部15が前景領域の輪郭線を抽出し、グラフカット計算部17が、輪郭線に基づいて重み付けた初期確率場をコスト関数としてグラフカットを用いて前景領域と背景領域とに分離することにより、前景領域の一部と背景領域の一部の色ヒストグラムから生成した初期確率場に前景領域の形状を加味し、任意の背景下において、より正確に前景領域を分離できる。
本実施の形態によれば、スーパーピクセル計算部13がスーパーピクセルを生成してスーパーピクセルの境界を示す二値画像を生成し、微分フィルタ処理部14が処理領域画像の形状に基づいて生成した微分フィルタを二値画像に適用し、形状候補抽出部15が微分フィルタを適用後の二値画像中の輪郭候補の画素をスーパーピクセルの境界に沿って補間して前景領域の輪郭線を推定することで、入力された前景領域の形状に基づいて前景領域の輪郭線を推定することができる。
本実施の形態を動画に適用する場合は、1枚目の画像の処理時に生成した確率場を保持して更新しながら使用する。例えば、オプティカルフローなどで画像上の特徴点の動きを追うことによって対応する画素のキーポイントを一致させて、輪郭情報を追従させる期待できる。
[第2の実施の形態]
<画像認識システムの構成>
図23は、第2の実施の形態における画像処理装置を含む画像認識システムの全体構成図である。同図に示す画像認識システムは、画像処理装置1、画像認識装置3を備える。画像処理装置1と画像認識装置3とはネットワークを介して接続される。
第2の実施の形態では、画像処理装置1は教師データの作成に利用される。画像処理装置1に、第1の実施の形態と同様に、元画像と元画像から切り出す前景領域の形状を入力し、前景領域のみが切り出された前景画像を得る。第2の実施の形態では、図24に示すように、画像処理装置1が特徴点抽出部19を備え、前景画像の特徴点を抽出し、特徴点と元画像を教師データとして画像認識装置3へ送信する。
画像認識装置3は、受信部31、特徴点抽出部32、判別処理部33、送信部34、及び画像データ記憶部35を備える。画像認識装置3が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは画像認識装置3が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
受信部31は、クライアント端末5から認識対象の画像を受信する。画像認識装置3とクライアント端末5とはネットワークを介して接続される。
特徴点抽出部32は、受信した画像から特徴点を抽出する。
判別処理部33は、特徴点抽出部32が抽出した特徴点を画像データ記憶部35に格納された特徴点と照合し、類似の特徴点をもつデータを検索する。
送信部34は、判別処理部33の検索結果をクライアント端末5へ送信する。検索結果は、特徴点に関連付けられたデータであり、例えば、画像処理装置1から受信した画像である。
画像データ記憶部35は、画像処理装置1から受信した特徴点と画像を関連付けて格納する。
<画像認識システムの動作>
次に、第2の実施の形態の画像認識システムの動作について説明する。
図25は、画像処理装置が特徴点を抽出する処理の流れを示すフローチャートである。
画像処理装置1は、第1の実施の形態で説明したように、前景画像を切り出したとする。
特徴点抽出部19は、前景画像の特徴点を抽出する(ステップS61)。特徴点は、エッジ勾配、色変化など有為なものであればよい。ただし、特徴点抽出部19が抽出する特徴点は、画像認識装置3の特徴点抽出部32が抽出する特徴点と同じ種類のものでなければならない。
特徴点抽出部19は、特徴点と画像処理装置1が入力した元画像を画像認識装置3に送信する(ステップS62)。特徴点抽出部19は、特徴点の画像上の座標と位置関係及び前景画像に写った物体の情報を元画像に関連付けて画像認識装置3へ送信する。画像処理装置1が教師データを作成するときは、ユーザから前景領域の形状を入力するときに、前景の物体の情報も入力しておくとよい。
図26は、画像認識装置の処理の流れを示すフローチャートである。
受信部31は、クライアント端末5から画像を受信する(ステップS71)。
特徴点抽出部32は、クライアント端末5から受信した画像の特徴点を抽出する(ステップS72)。特徴点抽出部32は、画像処理装置1の特徴点抽出部19と同種の特徴点を抽出する。
判別処理部33は、特徴点抽出部32が抽出した特徴点と類似の特徴点を持つデータを画像データ記憶部35から検索する(ステップS73)。
送信部34は、判別処理部33の検索結果をクライアント端末5へ送信する(ステップS74)。
図27は、クライアント端末に表示される結果の例を示す図である。
クライアント端末5が、クライアント端末5の備えるカメラなどで撮った問い合わせ画像51を画像認識装置3へ送信すると結果が得られる。図27では、検索結果として得られた問い合わせ画像51に写った物体の情報52、関連する検索結果画像53A、53Bを表示している。物体の情報52及び検索結果画像53A、53Bは、画像データ記憶部35に格納されたデータである。
本実施の形態によれば、画像処理装置1が前景領域を切り出し、前景領域の特徴点を抽出して教師データを作成することにより、余計な背景が切り落とし、確からしい特徴点のみを抽出できるので、画像認識処理において、誤差を抑え、マッチングの精度の向上を期待できる。
1…画像処理装置
11…入力部
12…初期確率場生成部
13…スーパーピクセル計算部
14…微分フィルタ処理部
15…形状候補抽出部
16…処理確率場生成部
17…グラフカット計算部
18…領域論理演算部
19…特徴点抽出部
3…画像認識装置
31…受信部
32…特徴点抽出部
33…判別処理部
34…送信部
35…画像データ記憶部
5…クライアント端末

Claims (5)

  1. 画像を入力する画像入力手段と、
    前記画像の前景領域の輪郭に沿った前景領域の形状を入力し、前記画像から前記前景領域の形状に対応する画素を切り出して処理領域画像を取得する形状入力手段と、
    前記処理領域画像の前景領域側の画素と前記処理領域画像の背景領域側の画素から前記画像の各画素の前景らしさ又は背景らしさの確率を保持する初期確率場を生成する初期確率場生成手段と、
    前記処理領域画像から前記前景領域の輪郭線を抽出する輪郭線抽出手段と、
    前記輪郭線に基づいて重み付けた前記初期確率場をコスト関数としてグラフカットを用いて前記画像を前景領域と背景領域とに分離する分離手段と、を有し、
    前記輪郭線抽出手段は、
    前記処理領域画像から色や位置が近い画素をクラスタリングしたスーパーピクセルを計算し、スーパーピクセルの境界を表す境界画像を生成するスーパーピクセル計算手段、
    前記前景領域の形状に基づいて微分フィルタを生成し、前記境界画像に当該微分フィルタを適用して前記前景領域の輪郭候補画素を抽出する微分フィルタ処理手段と、
    前記輪郭候補画素間を前記スーパーピクセルの境界に沿って補間して前記前景領域の輪郭線を抽出する輪郭線補間手段と、を有する
    ことを特徴とする画像処理装置。
  2. 前記分離手段は、前記スーパーピクセル間で前景領域と背景領域とを分離することを特徴とする請求項に記載の画像処理装置。
  3. 前記形状入力手段は、深度センサ又は温度センサを用いて前記前景領域の形状を入力することを特徴とする請求項1または2に記載の画像処理装置。
  4. コンピュータによって実行される画像処理方法であって、
    画像を入力するステップと、
    前記画像の前景領域の輪郭に沿った前景領域の形状を入力するステップと、
    前記画像から前記前景領域の形状に対応する画素を切り出して処理領域画像を取得するステップと、
    前記処理領域画像の前景領域側の画素と前記処理領域画像の背景領域側の画素から前記画像の各画素の前景らしさ又は背景らしさの確率を保持する初期確率場を生成するステップと、
    前記処理領域画像から前記前景領域の輪郭線を抽出するステップと、
    前記輪郭線に基づいて重み付けた前記初期確率場をコスト関数としてグラフカットを用いて前記画像を前景領域と背景領域とに分離するステップと、を有し、
    前記輪郭線を抽出するステップは、
    前記処理領域画像から色や位置が近い画素をクラスタリングしたスーパーピクセルを計算し、スーパーピクセルの境界を表す境界画像を生成するステップと、
    前記前景領域の形状に基づいて微分フィルタを生成し、前記境界画像に当該微分フィルタを適用して前記前景領域の輪郭候補画素を抽出するステップと、
    前記輪郭候補画素間を前記スーパーピクセルの境界に沿って補間して前記前景領域の輪郭線を抽出するステップと、を有する
    ことを特徴とする画像処理方法。
  5. 請求項1乃至3のいずれかに記載の画像処理装置の各手段としてコンピュータを動作させることを特徴とする画像処理プログラム。
JP2016115333A 2016-06-09 2016-06-09 画像処理装置、画像処理方法、及び画像処理プログラム Active JP6611255B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016115333A JP6611255B2 (ja) 2016-06-09 2016-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016115333A JP6611255B2 (ja) 2016-06-09 2016-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017220098A JP2017220098A (ja) 2017-12-14
JP6611255B2 true JP6611255B2 (ja) 2019-11-27

Family

ID=60657970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115333A Active JP6611255B2 (ja) 2016-06-09 2016-06-09 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6611255B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6407467B1 (ja) * 2018-05-21 2018-10-17 株式会社Gauss 画像処理装置、画像処理方法およびプログラム
JP6949795B2 (ja) 2018-09-25 2021-10-13 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2020106330A (ja) * 2018-12-26 2020-07-09 デクセリアルズ株式会社 電流検知素子、電流検知素子複合体および保護回路
CN112581490B (zh) * 2020-12-28 2023-03-17 西安理工大学 一种复杂曲面干涉测量中前景区域提取方法
JP7467773B2 (ja) 2021-05-24 2024-04-15 京セラ株式会社 教師データ生成装置、教師データ生成方法、及び画像処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5836908B2 (ja) * 2012-09-27 2015-12-24 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP6467817B2 (ja) * 2014-08-22 2019-02-13 カシオ計算機株式会社 画像処理装置、画像処理方法、およびプログラム
JP6399651B2 (ja) * 2014-10-15 2018-10-03 Kddi株式会社 登録装置及び検索装置並びに方法及びプログラム

Also Published As

Publication number Publication date
JP2017220098A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6611255B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
KR101469398B1 (ko) 텍스트 기반 3d 증강 현실
US8269722B2 (en) Gesture recognition system and method thereof
CN108388882B (zh) 基于全局-局部rgb-d多模态的手势识别方法
Kirac et al. Hierarchically constrained 3D hand pose estimation using regression forests from single frame depth data
JP6204659B2 (ja) 映像処理装置及び映像処理方法
KR101611895B1 (ko) 감정 기반의 자동 문구 디자인 장치 및 그 방법
JP2016095849A (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
TW201443807A (zh) 視覺化服飾檢索
JP5036084B2 (ja) 映像処理装置、映像処理方法、及びプログラム
CN114981841A (zh) 用于视频对象分割(vos)的端到端合并
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN111382613A (zh) 图像处理方法、装置、设备和介质
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6902811B2 (ja) 視差推定システムと方法、電子機器及びコンピュータ可読記憶媒体
CN106407978B (zh) 一种结合似物度的无约束视频中显著物体检测方法
KR101439037B1 (ko) 영상에서 객체를 추적하는 방법 및 장치
Liu et al. Stereo video object segmentation using stereoscopic foreground trajectories
Mohatta et al. Robust hand gestural interaction for smartphone based AR/VR applications
Haggag et al. An adaptable system for rgb-d based human body detection and pose estimation: Incorporating attached props
Recky et al. Façade segmentation in a multi-view scenario
CN110827373A (zh) 广告图片生成方法、装置以及存储介质
CN108521594B (zh) 一种基于体感相机手势识别的自由视点视频播放方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6611255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150