JP2013029930A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2013029930A JP2013029930A JP2011164465A JP2011164465A JP2013029930A JP 2013029930 A JP2013029930 A JP 2013029930A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2013029930 A JP2013029930 A JP 2013029930A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- area
- information
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる画像処理装置を提供する。
【解決手段】処理対象となる画像情報を表示し、表示した画像情報内の点の指定を少なくとも一つ受け入れ、受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成して、当該形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する画像処理装置である。
【選択図】図1
【解決手段】処理対象となる画像情報を表示し、表示した画像情報内の点の指定を少なくとも一つ受け入れ、受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成して、当該形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する画像処理装置である。
【選択図】図1
Description
本発明は、画像処理装置に係り、特に処理操作の利便性の向上に関する。
近年、いわゆるスマートフォン等、一般的なコンピュータと同様の処理が可能な携帯端末が広く利用されている。このようなスマートフォンでは、画面が比較的小さく、また操作もタッチパネルを利用するなど、画像上においても大ざっぱな点を指定できる程度となっているものが多い。
一方、与えられた画像情報から対象となる領域を抽出する技術として、画像セグメンテーションと呼ばれる技術が知られている。こうしたセグメンテーションの処理の方法として、グラフカット(Graph Cuts)、領域拡張法などの種々の方法がある。例えば特許文献1には、物体認識のためにセグメンテーション処理を利用する例が開示されている。
こうした従来のセグメンテーション技術では、例えばグラフカットを用いる場合に、抽出したい領域(前景)を取り囲む形状を初期領域として事前に指定することが前提となっている。しかしながら、既に述べたように、これをスマートフォン上に実装する場合、詳細な領域指定が困難であるために、セグメンテーションの処理が必ずしも十分にできない場合がある。
本発明は上記実情に鑑みて為されたもので、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる画像処理装置を提供することをその目的の一つとする。
上記従来例の問題点を解決する本発明は、画像処理装置であって、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、とを含むこととしたものである。
ここで前記領域形成手段は、所定形状の領域の大きさを、隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとしてもよい。
また、前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行うこととしてもよい。
さらに本発明の一態様に係る画像処理装置は、さらに、前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行することとしたものである。
また本発明の別の態様に係るプログラムは、コンピュータを、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、として機能させることとしたものである。
このように点の指定に基づいて初期領域を形成し、セグメンテーション処理を行うことで、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、画像取得部15とを含んで構成されている。
ここで制御部11は、例えばCPU(Central Processing Unit)等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、処理対象となる画像情報を取得して表示部14に表示出力させる。またこの制御部11は、表示された画像情報内の点の指定を少なくとも一つ受け入れ、当該受け入れた各点を含む所定形状の各領域を画像情報内に形成する。そして制御部11は、形成した領域の情報を前景の初期領域としてセグメンテーション処理を実行し、画像情報を、前景と背景とに分離し、当該分離して得た前景の画像部分を出力する。この制御部11による具体的な処理の内容については後に詳しく述べる。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムはDVD−ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。また、この記憶部12は、制御部11のワークメモリとしても動作する。
操作部13は、例えば表示部14に積層して配された透明のタッチパネルである。この操作部13は、利用者が触れるなどして指示した位置を表す情報を生成して、制御部11に出力する。表示部14は、液晶ディスプレイパネルなどであり、制御部11から入力される指示に従い、画像情報を表示出力する。
画像取得部15は、例えばカメラなど、撮像により画像情報を取得する撮像部、あるいは、ネットワークインタフェース、USB(Universal Serial Bus)インタフェース等外部の装置との通信により画像情報を取得する通信部の少なくとも一方を含む。この画像取得部15は、取得した画像情報を制御部11に出力する。
次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、画像取得部15が取得して出力する画像情報を記憶部12に格納する。また、この制御部11は、記憶部12に格納されたプログラムを実行することで、機能的に図2に例示する構成を有したものして動作する。すなわち、この制御部11は機能的には、画像情報取得部21と、画像表示制御部22と、指定点受入部23と、領域形成部24と、分離部25と、出力部26と、情報処理部27とを含んで構成される。
画像情報取得部21は、利用者からの指示に従い、記憶部12に格納した画像情報の一つを読み出す。また、この画像情報取得部21は、利用者からの指示に従い、画像取得部15の撮像部に指示して、画像情報を撮像して取得してもよい。画像表示制御部22は、画像情報取得部21が取得した画像情報を表示部14に表示出力させる。
指定点受入部23は、画像表示制御部22によって表示部14が表示出力している画像情報上で、利用者が操作部13を操作して指示した位置(画像情報内の点の指定)を少なくとも一つ、受け入れる。操作部13が表示部14に積層されたタッチパネルである場合、操作部13は、利用者が触れた位置に対応する、積層されている表示部14上の画素の位置の情報(座標情報)を出力する。
指定点受入部23は、操作部13から利用者が指定した座標情報の入力を受けるごとに、当該座標情報Pを、記憶部12に処理対象座標情報リストとして蓄積して格納する(図3)。また、この指定点受入部23は、利用者が操作部13上の一点を長押し(タッチパネル上の一点を抑えたまま、一定時間以上そのままにする操作)したことを表す情報を操作部13から受け入れ、次の処理を行ってもよい。
すなわち、長押しされた座標情報Sが入力されると、処理対象座標情報リストに含まれる座標情報P1,P2,…Pnのうち、
|S−Pi|<T
(ただし、|S−Pi|は、座標情報Sで表される座標と、Piで表される座標との距離、i=1,2,…n、Tは予め定めたしきい値)を満足する座標情報Piがあるか否かを調べ、そのようなPiがあれば(複数あれば、|S−Pi|が最も小さいPiとする)、当該Piを取り囲む所定形状の図形を表示部14に表示し、また、当該図形の近傍に削除指示を受け入れるアイコン(例えばX印のアイコン)を表示する。この表示は例えば図4に例示するようになる。
|S−Pi|<T
(ただし、|S−Pi|は、座標情報Sで表される座標と、Piで表される座標との距離、i=1,2,…n、Tは予め定めたしきい値)を満足する座標情報Piがあるか否かを調べ、そのようなPiがあれば(複数あれば、|S−Pi|が最も小さいPiとする)、当該Piを取り囲む所定形状の図形を表示部14に表示し、また、当該図形の近傍に削除指示を受け入れるアイコン(例えばX印のアイコン)を表示する。この表示は例えば図4に例示するようになる。
そして利用者がこの所定形状の図形を表示部14上でドラッグすると、ドラッグに従って座標情報Piを変更する。また、利用者が当該図形近傍に配された削除指示用のアイコンに触れると、当該座標情報Piを、処理対象座標情報リストから削除する等、処理対象座標情報リスト上の座標情報を追加、変更する処理を行わせてもよい。
領域形成部24は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する。具体的にこの領域形成部24は、処理対象座標情報リストに含まれる座標情報を順次、注目座標Pgとして選択する。
領域形成部24は、注目座標Pgとの間で、距離
|Pi−Pg|
が最も小さい、最近傍の座標情報Pjを処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n、ただしi≠g)のうちから選択する。そして領域形成部24は、最近傍の他の点までの距離|Pj−Pg|の半分を、点Pgを含む所定形状の領域の大きさを規定する情報rgとして算出する。つまり、
rg=|Pi−Pg|/2
とする(図5)。
|Pi−Pg|
が最も小さい、最近傍の座標情報Pjを処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n、ただしi≠g)のうちから選択する。そして領域形成部24は、最近傍の他の点までの距離|Pj−Pg|の半分を、点Pgを含む所定形状の領域の大きさを規定する情報rgとして算出する。つまり、
rg=|Pi−Pg|/2
とする(図5)。
領域形成部24は、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n)に関連して、それぞれの点を含む所定形状の領域の大きさを規定する情報ri(i=1,2,…n)を生成すると、この情報riを、対応する座標情報を特定する情報に関連づけて記憶部12に格納する。領域形成部24はそして、座標情報Piがあらわす座標を中心とし、半径がriである円形状の領域(i=1,2…,n)を生成する(図6)。このようにすることで、所定形状の領域の大きさが隣接する(最近傍の)所定形状の領域に接する大きさとなる。
またこの領域形成部24は、n=1、つまり、処理対象座標情報リストに含まれる座標情報Piが1つしかなければ、領域の大きさを画像情報を取り囲む形状に接する大きさとする。つまり座標情報Piが表す座標を中心とし、画像情報に外接する矩形に内接する(枠に接する最大の大きさの)円形状の領域を生成することとすればよい。
分離部25は、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。このセグメンテーション処理については、例えばグラフカットなどの公知の処理を採用できるので、ここでの詳しい説明を省略する。具体的には、グラフカットの実装例であるグラブカット(GrabCut)の自動セグメンテーション(Automatic segmentation)を採用してもよい。このグラブカットは例えば、C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004に詳しい説明が記載されている。
出力部26は、画像情報のうち、分離された前景の画像部分を出力する。本実施の形態では、座標情報Piごとに前景となる画像部分が分離される。出力部26は、座標情報Piごとの前景となる画像部分を出力する。情報処理部27は、出力部26が出力した画像部分を用いて予め定めた情報処理を実行する。この情報処理部27による処理の例については後に述べる。
本実施の形態は、以上の構成を備えており、次に述べるように動作する。利用者が本実施の形態の画像処理装置を操作して、画像情報を取得して表示するよう指示すると、図7に例示するように本実施の形態の画像処理装置1は、表示部14に指示により取得した画像情報を表示し、点を指定する操作を待機する(S1)。
利用者が、表示された画像情報上で、抽出したい画像部分中の一点をタップすると画像処理装置1は、当該タップされた位置に対応する画像情報上の座標情報を取得して記録する(S2)。画像処理装置1は、利用者から指定が終了した旨の操作が行われるまで処理S2を繰り返して行い、少なくとも一つの指定点の座標情報を蓄積して記録する。
利用者が点の指定を終了した旨の操作を行うと、画像処理装置1は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する(S3)。ここでは所定形状は例えば円であるとする。また、各領域は重なり合わずに互いに接する大きさ以下の大きさとする。
画像処理装置1は、形成した領域を、前景を表す初期領域としてグラブカットなどのプログラムを利用してセグメンテーション処理を実行する(S4)。そしてセグメンテーションの処理により得られた画像情報のうち、前景となる部分画像を処理の対象として取り出して(S5)、予め定めた処理を実行する(S6)。
さらに本実施の形態の画像処理装置1の制御部11は、領域形成部24及び分離部25の処理として次のような処理を行ってもよい。すなわち領域形成部24は、座標情報Piについて確定した円形状の領域(区別のため外周領域と呼ぶ)内に、さらに当該座標情報Piによって表される座標を含む小領域をさらに形成してもよい。この小領域は具体的に、確定した外周領域の形状と相似の形状であって、予め定めた大きさのものとする。なお、この予め定めた大きさによって確定される小領域が、確定した外周領域からはみ出る場合は、外周領域と小領域とが重なりあっている(いわばそれらの論理積によって確定される)領域を小領域とする。
また別の例では、この小領域は、確定した外周領域の形状と相似の形状であって、外周領域の大きさに対して予め定めた比ないし大きさだけ小さい領域であるものとして設定してもよい。
そして制御部11の分離部25は、この小領域内にある画素はすべて前景を構成する画素であるとしてセグメンテーションの処理を実行する。具体的にグラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=1(foreground brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。
さらに本実施の形態の画像処理装置1では、分離部25の処理として、画像情報のうち、どの外周領域にも含まれない部分(領域外の部分)については、背景の初期領域としてセグメンテーションの処理を行ってもよい。具体的に、グラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=0(background brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。
さらにここまでの説明において、領域形成部24は、注目座標情報Pgから最近傍の他の点(座標情報Pjで表される座標の点)までの距離|Pj−Pg|の半分、つまりこれらの各点の中点を、点Pgを含む所定形状の領域の外周が通る点として、領域の大きさを規定していた。つまり、
rg=|Pj−Pg|/2
としていた。
rg=|Pj−Pg|/2
としていた。
しかしながら、本実施の形態はこれに限られるものではない。例えば領域形成部24は、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて、表示部14に表示出力し、領域の調整を利用者から受け入れる指示に従って行ってもよい。この調整は例えば次のようにして行うことができる。すなわち利用者が領域内の一点をタップするごとに、当該タップされた領域の大きさを拡大するようにする。
このために領域形成部24は、この調整を受け入れる処理を行う際には、予め各座標情報Pi(i=1,2,…,n)についてタップ回数を表す情報Ti(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。このタップ回数Tiは、当初は、それぞれ1回ずつなのでそれぞれ「1」となる。
一例として、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力し、領域の調整を利用者から受け入れる処理を行う。
ここで利用者が調整のために指定した点の座標情報が入力されると、領域形成部24は形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
そして領域形成部24は、当該座標情報Piとその最近傍の他の点までの距離|Pj−Pi|を用いて、まず指定した座標情報Piに係る、指定された領域の大きさriを、
r′i=(Ti/(Ti+Tj))×|Pj−Pi|
に更新する。なお、Tjは、座標情報Pjに関連づけられたタップ回数である。また領域形成部24は、座標情報Piの最近傍の座標情報Pjについて、当該座標情報Pjに係る領域の大きさrjを
r′j=(Tj/(Ti+Tj))×|Pj−Pi|
とする。
r′i=(Ti/(Ti+Tj))×|Pj−Pi|
に更新する。なお、Tjは、座標情報Pjに関連づけられたタップ回数である。また領域形成部24は、座標情報Piの最近傍の座標情報Pjについて、当該座標情報Pjに係る領域の大きさrjを
r′j=(Tj/(Ti+Tj))×|Pj−Pi|
とする。
このとき、領域形成部24は、
|Pi−Pk|<r′i+rk
または
|Pj−Pk|<r′j+rk
なる座標情報Pkならびに半径rkがないかを調べる。つまり領域の大きさを拡大等した結果、他の座標情報に係る領域と重なり合うこととならないかを調べる。そして座標情報Piについて、|Pi−Pk|<r′i+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′i=|Pi−Pk|−rk
とする。また座標情報Pjについて、|Pj−Pk|<r′j+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′j=|Pj−Pk|−rk
とする。
|Pi−Pk|<r′i+rk
または
|Pj−Pk|<r′j+rk
なる座標情報Pkならびに半径rkがないかを調べる。つまり領域の大きさを拡大等した結果、他の座標情報に係る領域と重なり合うこととならないかを調べる。そして座標情報Piについて、|Pi−Pk|<r′i+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′i=|Pi−Pk|−rk
とする。また座標情報Pjについて、|Pj−Pk|<r′j+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′j=|Pj−Pk|−rk
とする。
また、利用者が領域の調整を終了する指示(領域を確定する指示)を入力すると、処理S4に移行して、処理を続ける。
次に、本実施の形態の画像処理装置1において制御部11が、画像情報から処理対象として取り出した前景となる画像部分について行う処理の例について述べる。本実施の形態のある例によると、画像処理装置1が取得する画像情報は、例えば複数の皿のそれぞれに盛られた飲食物を撮像した画像情報である。
そして利用者は、表示された飲食物を撮像した画像から、各皿の飲食物の部分をタップする。画像処理装置1は、タップされた位置を含む領域を画定し、この領域を前景の初期領域としてセグメンテーション処理により、飲食物を含んだ画像部分を抽出する。
本実施の形態の画像処理装置1は、抽出した画像部分の画素値のヒストグラム等、画素値に基づいて演算される特徴量と、当該特徴量により識別される料理について、標準的なものについて予め定めた分量の場合(例えば1人分)の栄養成分値(例えばカロリーや塩分等)とを関連づけて保持したデータベース(成分値データベース)を参照して、抽出された画像部分ごとに、標準的、かつ予め定めた分量の栄養成分値を取得する。なお、こうしたデータベースは、文部科学省の「食品標準成分表」等の情報から作成できる。
画像処理装置1は、次に、抽出した前景の画像部分の数と大きさとにより、取得した栄養成分値を補正する。具体的に、通常の食事において一人が喫食する飲食物の種類を平均的にN皿として、抽出した前景の画像部分の数がこのNを超えていなければ、この抽出した前景の画像部分の大きさ(例えば抽出した画像部分に外接する円の半径riでよい)の平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。
また、抽出した前景の画像部分の数がこのNを超えていれば、N以下の画像部分が得られるまで、抽出した前景の画像部分のうち大きさが大きいものから順にn個、または、小さいものから順にm個の少なくとも一方を、n,mを漸増させつつ繰り返して、除いていく。そして、この結果、N以下の画像部分が得られたならば、それらの大きさの平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。そして画像処理装置1は、この累算の結果を表示部14に表示し、利用者に提示する。
[個別の大きさ]
また領域形成部24が、形成した領域の一つに対して利用者の調整の指示を受け入れる場合に、ここまでの説明では、調整の対象となった領域の大きさを指示に応じて拡大するとともに、隣接する領域の大きさについては、当該調整の対象となった領域と重なり合わず、接することとなるよう縮小することとしてきた。しかしながら本実施の形態はこれに限られるものではない。
また領域形成部24が、形成した領域の一つに対して利用者の調整の指示を受け入れる場合に、ここまでの説明では、調整の対象となった領域の大きさを指示に応じて拡大するとともに、隣接する領域の大きさについては、当該調整の対象となった領域と重なり合わず、接することとなるよう縮小することとしてきた。しかしながら本実施の形態はこれに限られるものではない。
個々の領域の大きさを個別のものとして、利用者による調整の対象となった領域を指示に応じて拡大ないし縮小するようにし、隣接する領域の大きさについては調整しないようにしても構わない。
すなわち、利用者が調整のために指定した点の座標情報Paが入力されると、領域形成部24は、形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該指定された領域の座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該指定された領域の座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
そして領域形成部24は、この座標情報Piに係る、指定された領域の大きさriを、
ri=ri+Δr×Ti
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでΔrはタップ一回分の増分として予め定めた値とする。
ri=ri+Δr×Ti
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでΔrはタップ一回分の増分として予め定めた値とする。
この場合、領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。
そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。
一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。
この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。
[前景の大きさを変更する処理の変形例]
また、領域形成部24は、領域の調整を受け入れる場合であって、領域間が離れても構わないとする場合には、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを初期値として、座標情報Piに対応する領域の大きさとしてもよい。つまり、
ri=rdefault
とする。
また、領域形成部24は、領域の調整を受け入れる場合であって、領域間が離れても構わないとする場合には、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを初期値として、座標情報Piに対応する領域の大きさとしてもよい。つまり、
ri=rdefault
とする。
この場合利用者は、当初領域に関する座標情報を指定して、その後、適宜タップを繰り返して、領域の大きさが所望のものとなるまでタップを繰り返すこととすればよい。
さらにここまでの説明では、領域形成部24が調整の処理を受け入れるにあたっては、タップ回数に応じて領域を拡大する例について述べたが、調整の処理では、領域の拡大・縮小の双方を可能としてもよい。
この例では、領域形成部24は、拡大・縮小の双方の調整を受け入れる処理を行うため、予め各座標情報Pi(i=1,2,…,n)について拡大縮小の割合を表す重み値Wi(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。この重み値Wiは、当初は、予め定めた初期値X、例えば「0」としておく。
また、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを、座標情報Piに対応する領域の大きさの初期値としておく。
一例として領域形成部24は、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力するとともに、各領域を表す図形画像の内部ないし外周上に重ね合わせて、領域の拡大を指示する際にタップするアイコン(例えば「+」記号のアイコン)と、領域の縮小を指示する際にタップするアイコン(例えば「−」記号のアイコン)とを表示する。そして領域の調整を利用者から受け入れる処理を行う。これら、拡大ないし縮小指示のためのアイコンは、どの領域に関連するものかが指定できればそれでよく、表示位置は特に上記のものに限られない。
さらに別の例では、調整の対象となる領域を指定して、指二本で広げるあるいは狭めるような操作(アップル社のアイフォーンでいう、「ピンチアウト」ならびに「ピンチイン」操作)を行うことで、拡大縮小の指示が行われてもよい。
ここで利用者が調整のために、いずれかの領域の図形画像に関連づけられた拡大・縮小のためのアイコンがタップされるか、またはいずれかの領域を指定した「ピンチアウト」や「ピンチイン」といった操作が行われると、領域形成部24は形成した領域の情報を参照して、指定された領域Pi(アイコンをタップしたときには当該タップされアイコンに関連する領域)を特定する。
そして領域形成部24は、当該特定した座標情報Piに関連づけられた重み値Wiを調整する。すなわち、領域の拡大を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ増大させ、領域の縮小を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ減少させる。
また「ピンチアウト」や「ピンチイン」といった操作の場合は、これらの操作において2つの指の触れている点が近接ないし離隔した量に応じ、近接したときには近接量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiから差引きする。
また、ピンチアウト操作(2つの指の触れている点が離隔していく操作)がされたときには、離隔量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiを増大させる。
領域形成部24は、こうして調整した重み値Wiを用いて、先に特定した座標情報Piに係る、指定された領域の大きさriを、
ri=rdefault+Δr×(Wi−X)
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでのΔrは、重み値Wの増分「1」あたりの拡大縮小量として予め定めた値とし、rdefaultは、領域の大きさの初期値、Xは重み値の初期値とする。
ri=rdefault+Δr×(Wi−X)
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでのΔrは、重み値Wの増分「1」あたりの拡大縮小量として予め定めた値とし、rdefaultは、領域の大きさの初期値、Xは重み値の初期値とする。
さらに領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。
そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。処理S4以下の処理を行う分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。
一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。
この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。
[画像内容に応じて初期設定の前景の大きさを変更する例]
さらに領域形成部24は、領域の拡大や縮小の調整を行う際には、調整後の大きさをタップの回数やピンチアウト操作等において指定された二点間の距離の変化に応じて、調整後の領域の大きさを定めるのではなく、予め定めた規則に従って、調整後の領域の大きさを定めてもよい。
さらに領域形成部24は、領域の拡大や縮小の調整を行う際には、調整後の大きさをタップの回数やピンチアウト操作等において指定された二点間の距離の変化に応じて、調整後の領域の大きさを定めるのではなく、予め定めた規則に従って、調整後の領域の大きさを定めてもよい。
一例として、領域形成部24が重み値Wiを用いる場合、座標情報Piに対応する領域について拡大の操作が行われたときには、Wiを「1」だけインクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつインクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。なお、タップ回数Tiを用いる場合も、ここでのWiの代わりにTiとして同様の処理を行えばよい。この場合、タップ回数Tiは実際のタップ回数ではなく、重み値と同様の意味を持つこととなる。
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつインクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。なお、タップ回数Tiを用いる場合も、ここでのWiの代わりにTiとして同様の処理を行えばよい。この場合、タップ回数Tiは実際のタップ回数ではなく、重み値と同様の意味を持つこととなる。
また同様に、座標情報Piに対応する領域について縮小の操作が行われたときには、Wiを「1」だけデクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつデクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつデクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。
これらの場合において、画素値の統計量は、例えば画素値の平均、あるいは、ヒストグラムにおける最頻値などとしてもよい。そして、比較結果に係る条件とは、例えば領域内外における画素値の各平均の差の絶対値が予め定めたしきい値を超える、あるいは領域内外における各最頻値の差の絶対値が予め定めたしきい値を超える、などの条件としておけばよい。
また重み値Wiをインクリメント、またはデクリメントする場合において、仮の大きさr′iが予め定めた下限値を下回る場合はその時点でデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよく、また、座標情報Piに対応する仮の大きさr′iの領域が画像情報の辺に接したところでインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよい。
本実施の形態によると、簡便な操作で、例えば飲食物の画像情報から、各飲食物の画像部分を特定できる。
1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 画像取得部、21 画像情報取得部、22 画像表示制御部、23 指定点受入部、24 領域形成部、25 分離部、26 出力部、27 情報処理部。
Claims (5)
- 処理対象となる画像情報を表示する手段と、
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
とを含む画像処理装置。 - 請求項1記載の画像処理装置であって、
前記領域形成手段は、所定形状の領域の大きさを、
隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとする
画像処理装置。 - 請求項1または2記載の画像処理装置であって、
前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、
前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行う
画像処理装置。 - 請求項1から3のいずれか一項に記載の画像処理装置であって、
前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行する
画像処理装置。 - コンピュータを、
処理対象となる画像情報を表示する手段と、
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
として機能させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011164465A JP2013029930A (ja) | 2011-07-27 | 2011-07-27 | 画像処理装置 |
PCT/JP2012/069027 WO2013015381A1 (ja) | 2011-07-27 | 2012-07-26 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011164465A JP2013029930A (ja) | 2011-07-27 | 2011-07-27 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013029930A true JP2013029930A (ja) | 2013-02-07 |
Family
ID=47601218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011164465A Withdrawn JP2013029930A (ja) | 2011-07-27 | 2011-07-27 | 画像処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013029930A (ja) |
WO (1) | WO2013015381A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015060366A (ja) * | 2013-09-18 | 2015-03-30 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016012174A (ja) * | 2014-06-27 | 2016-01-21 | 国立大学法人電気通信大学 | 摂取量推定装置、摂取量推定方法およびプログラム |
JP2016122367A (ja) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016530624A (ja) * | 2013-08-16 | 2016-09-29 | ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド | 仮想試着モデル画像を生成するための方法及びデバイス |
US9652858B2 (en) | 2014-05-30 | 2017-05-16 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and image processing system |
US9679386B2 (en) | 2013-10-09 | 2017-06-13 | Casio Computer Co., Ltd. | Image processing device capable of segmenting an image into plural areas |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
WO2022185643A1 (ja) * | 2021-03-03 | 2022-09-09 | 富士フイルム株式会社 | 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3890235B2 (ja) * | 2002-01-28 | 2007-03-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体 |
JP4569698B2 (ja) * | 2008-06-20 | 2010-10-27 | ソニー株式会社 | 物体認識装置、物体認識方法及び物体認識方法のプログラム |
JP2010097355A (ja) * | 2008-10-15 | 2010-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 画像分離装置、画像分離方法および画像分離プログラム |
JP2011050038A (ja) * | 2009-07-27 | 2011-03-10 | Sanyo Electric Co Ltd | 画像再生装置及び撮像装置 |
-
2011
- 2011-07-27 JP JP2011164465A patent/JP2013029930A/ja not_active Withdrawn
-
2012
- 2012-07-26 WO PCT/JP2012/069027 patent/WO2013015381A1/ja active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016530624A (ja) * | 2013-08-16 | 2016-09-29 | ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド | 仮想試着モデル画像を生成するための方法及びデバイス |
JP2015060366A (ja) * | 2013-09-18 | 2015-03-30 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9384558B2 (en) | 2013-09-18 | 2016-07-05 | Casi Computer Co., Ltd. | Image processing device for performing image segmentation processing |
US9679386B2 (en) | 2013-10-09 | 2017-06-13 | Casio Computer Co., Ltd. | Image processing device capable of segmenting an image into plural areas |
US9652858B2 (en) | 2014-05-30 | 2017-05-16 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and image processing system |
JP2016012174A (ja) * | 2014-06-27 | 2016-01-21 | 国立大学法人電気通信大学 | 摂取量推定装置、摂取量推定方法およびプログラム |
JP2016122367A (ja) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2013015381A1 (ja) | 2013-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013015381A1 (ja) | 画像処理装置 | |
US11592923B2 (en) | Systems and methods for resizing applications in a multitasking view on an electronic device with a touch-sensitive display | |
US20190278471A1 (en) | Selectively emphasizing digital content | |
US9747010B2 (en) | Electronic content visual comparison apparatus and method | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
JP5854162B2 (ja) | 領域判定装置、領域判定方法およびプログラム | |
JP2015005172A (ja) | 情報処理装置、情報処理システム、及びプログラムを記憶した記憶媒体 | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
EP2383701A1 (en) | Image processing method and apparatus | |
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6582472B2 (ja) | 画像処理装置、画像処理システムおよびプログラム | |
JP6269323B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
EP2911115B1 (en) | Electronic device and method for color extraction | |
KR101902418B1 (ko) | 휴대단말기의 이미지 편집장치 및 방법 | |
JP6550819B2 (ja) | 選択支援装置及びプログラム | |
CN111831123A (zh) | 一种适用于桌面混合现实环境的手势交互方法及*** | |
RU2509377C2 (ru) | Способ и система и для просмотра изображения на устройстве отображения | |
JP2014160413A (ja) | データ処理装置、データ処理システム及びプログラム | |
US20170205967A1 (en) | Display and interaction method in a user interface | |
US20180173411A1 (en) | Display device, display method, and non-transitory computer readable recording medium | |
JP7363235B2 (ja) | 情報処理装置及び情報処理プログラム | |
US10514834B2 (en) | Method and system for selecting objects on a computer screen | |
TW200920102A (en) | Document camera and its method for sharpening partial image on projected image | |
US20180173362A1 (en) | Display device, display method used in the same, and non-transitory computer readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141007 |