JP2005141776A - 画像抽出装置および方法 - Google Patents
画像抽出装置および方法 Download PDFInfo
- Publication number
- JP2005141776A JP2005141776A JP2005029962A JP2005029962A JP2005141776A JP 2005141776 A JP2005141776 A JP 2005141776A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005029962 A JP2005029962 A JP 2005029962A JP 2005141776 A JP2005141776 A JP 2005141776A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- extraction
- attribute
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
【課題】 登録したい画像からより多くの構成要素に関するキーワードを自動的に抽出し、画像の検索用キーワードとして登録する。
【解決手段】 画像入力部1は、入力された画像を量子化し、画像データを生成する。領域抽出部2は画像データから領域を抽出する。領域属性抽出部3は、各領域を解析し、領域の色、テクスチャ、大きさ、形状に関する特徴を属性として付与する。画像構造抽出部4は、各領域間の位相関係を調査し、領領域と各領域間の位相関係を表現したデータ構造を作成する。オブジェクト抽出部5は、辞書を参照しながらデータ構造を走査し、前記データ構造の一部またはすべてをオブジェクトで置換する。キーワード抽出部6は、オブジェクトとオブジェクトの位置関係を対象画像のキーワードとして抽出する。画像登録部7は、キーワードを対応する画像に関係づけて画像データベースに登録する。
【選択図】 図1
【解決手段】 画像入力部1は、入力された画像を量子化し、画像データを生成する。領域抽出部2は画像データから領域を抽出する。領域属性抽出部3は、各領域を解析し、領域の色、テクスチャ、大きさ、形状に関する特徴を属性として付与する。画像構造抽出部4は、各領域間の位相関係を調査し、領領域と各領域間の位相関係を表現したデータ構造を作成する。オブジェクト抽出部5は、辞書を参照しながらデータ構造を走査し、前記データ構造の一部またはすべてをオブジェクトで置換する。キーワード抽出部6は、オブジェクトとオブジェクトの位置関係を対象画像のキーワードとして抽出する。画像登録部7は、キーワードを対応する画像に関係づけて画像データベースに登録する。
【選択図】 図1
Description
本発明は、画像から領域を抽出する画像抽出技術に関し、とくに画像中の領域に着目し領域を位相関係で表現する画像構造を抽出するのに最適なものである。
画像から領域を抽出することが望まれる。ここでは画像検索を例に挙げる。画像検索に関する従来技術として、一般のデータベースにおけるキーワード付与を基本とした検索手法がある。これは、画像登録者が任意のキーワードを付与するか、もしくは、あらかじめキーワードとなる言葉を決めておき、登録時にこれらのキーワード群を参照して適切なキーワードを付与する手法である。検索の際には、検索者の意図によるキーワードもしくはキーワード群から適切な用語を選び検索を実行する、単語の一致を基本とした検索手法である。この手法は検索装置の構成が容易であり、検索者の意図するキーワードが登録してありさえすれば容易かつ高速に検索できるという利点があるが、反面、画像の登録時に登録者がキーワードを付与する必要があり、手間が掛かる。また、登録者と検索者とが異なる場合には、両者の意図の違いから異なるキーワードが付与される可能性があり、検索者が目的の画像を検索できない状況が発生する。
前述の問題を解決するために、特許文献1および特許文献2に示されているようなキーワードの代わりに例示画像を検索キーとして用いる手法が提案されている。この手法は、蓄積画像から画像特有の視覚的特徴に基づく検索を実現させるための手法である。基本的には画像情報を構成物の形、大きさ、位置、さらには色、テクスチャ等を記述した概略画像を用い、蓄積画像全体に対して条件に合う画像を検索する手法である。また蓄積画像からの検索の効率化を図るため、登録画像の代表色をマッピングし、検索キーとなる画像の持つ代表色をこの色空間上にマッピングし、この近傍に存在する画像に対してのみ整合・評価を行なうことにより初期段階である程度の大分類を実施して高速化を図っている。しかし、検索の度に例示画を作成する必要があり、また、検索したい画像を例示画に描くことが困難な状況も発生する。
また、特許文献3に示されているような概略画像作成段階で素材の構成情報とその属性情報を作図プロセッサなどを用いて簡易に作成/登録でき、検索も構成情報とその属性情報のテーブルを用いて実施する方法もある。ここでの構成要素とは、例えば、机、りんごであり、その属性情報は位置、大きさ、姿勢等であり、確度の高い検索が可能となる。しかしながら、あらかじめ蓄積画像に対してこれら構成情報/属性情報を付加する必要がある。
また、自然画像の検索を効率よく行なう手法として、例えば、特許文献4がある。これは自然画像をコンポーネント化し、コンポーネントの形状/特徴情報を検索キーとする手法である。しかしながら、画像のコンポーネント化に際してはマウス/キーボード/デジタイザ等による人の介入を前提としている。
以上までに説明した従来の画像検索方法は、画像の登録時、もしくは、検索時にかなりの手間を要していた。この問題を解決するための方法として、画像から自動的、もしくは、半自動的にキーワードを抽出して、画像とともに登録する方法がある。
例えば、特許文献5では、画像から自動的に感覚語を抽出して画像とともに登録し、この感覚語をキーワードとする方法である。この感覚語による検索は、絵画などのある特定の画像群に対しては有効であるが、一般的な画像に対してはあまり有効ではない。これは、一般の画像から感覚語を抽出することが容易ではないことと、人により感覚が異なることが原因である。
また、画像から構成要素に関するキーワードを抽出する手法として、例えば、特許文献6がある。これは画像データの領域を設定し、さらにその領域に含まれる色情報、周波数情報などの物理情報を抽出し、物理量そのものをキーワードとしたり、領域の物理情報から、例えば、空、海等の言葉に結び付けることを可能にしている。しかしながら、領域の物理情報だけから結び付けられる言葉には限りがある。
既存の画像から領域を抽出してこれに基づいて、画像の検索等を行なうことが望まれる。
特開平4−60770号公報
特開平6−243178号公報
特開平1−130278号公報
特開平4−267480号公報
特開平1−73460号公報
特開平2−187864号公報
この発明は、以上の事情を考慮してなされたものであり、画像から領域を抽出する画像抽出技術を提供することを目的としている。
この発明によれば、上述の目的を達成するために、特許請求の範囲に記載のとおりの構成を採用している。ここでは、発明を詳細に説明するのに先だって、特許請求の範囲の記載について補充的に説明を行なっておく。
すなわち、この発明の一側面によれば、上述の目的を達成するために、画像抽出装置に:入力された画像を量子化して画像データを生成する画像入力処理手段と;該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを設けるようにしている。
前記領域抽出手段は、例えば、前記画像入力処理手段により生成された前記画像データからエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する。
この構成によれば簡易に類似の画素に着目して画像から領域を抽出することができる。
また、この構成において、前記領域抽出手段により抽出された領域の持つ物理情報を当該領域の属性として抽出する領域属性抽出手段を設けても良い。
前記領域属性抽出手段は、例えば、領域の色、大きさ、形状、テクスチャにそれぞれ関連する複数種類の特徴量のうちの少なくとも1種類を領域の属性として抽出する。
また、前記領域抽出手段により抽出された領域間の位相関係を算出して、画像を前記領域属性抽出手段により抽出された属性を持つ領域の位相関係で表現する画像構造抽出手段を設けても良い。
前記画像構造抽出手段は、例えば、領域と領域との位相関係として、一致、重複、包含、接合もしくは排他のいずれかの関係を抽出する。前記画像構造抽出手段は、領域と領域の位相関係として、領域の重心の座標を基準とした領域間の距離と方向を抽出してもよい。
なお、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、そのような発明の一部をソフトウェアとして構成することができることはもちろんである。またそのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品もこの発明の技術的な範囲に含まれることも当然である。また、ソフトウェアをコンピュータにインストールしてこの発明を実現する場合には、上述の各手段はコンピュータのハードウェア資源およびソフトウェア資源を協働させて適宜に実現される。
この発明の上述の側面および他の側面は特許請求の範囲に記載され以下実施例を用いて詳述される。
この発明によれば、画像から領域を抽出することができる。
以下、本発明の実施例について図面を参照して説明する。
図1は本発明の画像登録装置の実施の一形態を示すブロック図である。図中、1は画像入力部、2は領域抽出部、3は領域属性抽出部、4は画像構造抽出部、5はオブジェクト抽出部、6はキーワード抽出部、7は画像登録部である。
画像入力部1は、入力された画像を量子化し、画像データを生成する。領域抽出部2は画像入力部1で生成された画像データから、類似する特徴を持つ画素により構成される領域を抽出する。領域属性抽出部3は、領域抽出部2で抽出された各領域を解析し、領域の色、テクスチャ、大きさ、形状に関する特徴を属性として抽出する。画像構造抽出部4は、領域抽出部2で抽出された各領域間の位相関係を調査し、領域属性抽出部3により抽出された属性を持つ領域と各領域間の位相関係を表現したデータ構造を作成する。オブジェクト抽出部5は、属性条件および領域間の位相関係とオブジェクトとを対応づけた辞書を参照しながら画像構造抽出部4で作成されたデータ構造を走査し、前記データ構造の一部またはすべてをオブジェクトで置換する。キーワード抽出部6は、オブジェクト抽出部5で更新されたデータ構造からオブジェクトとオブジェクトの位置関係を対象画像のキーワードとして抽出する。画像登録部7は、キーワード抽出部6で抽出されたキーワードを対応する画像に関係づけて画像データベースに登録する。
図2は、本発明の画像登録装置の実施の一形態を実現する構成例を示すブロック図である。図中、101は画像入力処理部、102は画像データ記憶メモリ、103は領域抽出処理部、104は領域/領域属性記憶メモリ、105は領域属性抽出処理部、106は画像構造抽出処理部、107は画像構造記憶メモリ、108はオブジェクト抽出処理部、109はオブジェクト辞書、110はキーワード抽出処理部、111は画像登録処理部である。
画像入力処理部101では、スキャナなどを用いて入力対象の原稿を入力し、量子化して多階調のRGBカラー画像データ(RGB表色系の3要素R,G,Bで表される画像データ)を生成する。ここでは入力対象を原稿としたので入力手段としてスキャナを用いたが、屋外などの風景を入力対象とする場合にはビデオカメラなどにより入力してもよい。あるいは、計算機を用いて描画された画像などでもよい。入力される画像を一旦記憶装置に格納しておき、処理を行なう時に読み出すように構成することができる。この例では、RGBカラー画像データを入力画像として生成したが、本発明はこれに限定するわけではなく、グレイスケールの画像データでもよいし、また、L*a*b*などの他の表色系を用いてもよい。
画像データ記憶メモリ102は、画像入力処理部101により生成された画像データを記憶する。
領域抽出処理部103では、画像データ記憶メモリ102に記憶されている画像データを基に類似する特徴(色や濃度、テクスチャなど)を持つ画素により構成される領域を抽出する。従来までに多くの領域を抽出する手法が提案されているが、例えば、非階層的クラスタリング、いわゆる、k−平均領域分割手法を用いることができる。本実施例では、各画素の色相、彩度、明度を基に、k−平均領域分割方法を用いて、画像を構成するすべての画素をクラスタリングする場合を示す。本発明における領域は画像中の構成要素、例えば、顔や目などといったオブジェクトに対応するため、極端に小さなクラスタが得られてもあまり意味がない。従って、必要に応じて、クラスタを統合する処理を最後に行なってもよい。そして、同じクラスタに属する隣接画素をラベリングにより抽出することで、類似する特徴を持つ画素から構成される領域が抽出できる。ここで、ラベリングにより抽出された領域をすべて記憶する必要はなく、領域の大きさや総数などに対して閾値を設け、記憶する領域を制限してもよい。
本実施例では、k−平均領域分割およびラベリングにより領域抽出処理を行なったが、本発明はこれに限定するものではなく、類似する特徴を持つ画素により構成される領域を抽出できる手法であればどのような手法でも使用可能である。他の領域抽出手法としては、画像からエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する方法などがある。
領域/領域属性記憶メモリ104は、領域抽出処理部103により抽出された領域を領域データとして記憶する。領域データの構成も種々の方法が考えられるが、この例では、図3に示すようなラベリング画像により領域データを構成し、領域/領域属性記憶メモリ104に記憶する。図中、一マスが1つの画素の対応し、マスの中の数値は対応する画素の属する領域に固有の番号(以降、領域番号と称する)である。本発明における領域データの構成方法はラベリング画像に限るわけではなく、画像中の各画素にユニークな番号を与えておいて各領域をその領域に属する画素に与えられたユニークな番号の集合で表す方法や、領域の輪郭点集合で表す方法などの他の方法を用いて領域データを構成してもよい。
領域属性抽出処理部105では、領域/領域属性記憶メモリ104に記憶されている各々の領域に対応する属性を抽出する。抽出した属性は、対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶する。本発明における属性とは、領域の色、大きさ、形状、テクスチャに関する性質を表すものであり、例えば、平均色相、彩度のヒストグラム、面積、絶対最大長、近似形状を表すパラメータ、丸さ(針状)の度合、平均エッジ強度、空間周波数などの特徴量を用いることができる。本発明は、抽出する属性を前述の特徴量に限定するものではなく、領域の色、大きさ、形状、テクスチャに関する性質を表す特徴量であれば何でもよい。しかし、領域の色、大きさ、形状に関する性質を表す特徴量を少なくとも各1つは用いることが好ましい。この例では、簡単にするために、テクスチャに関する特徴を除いた、領域の平均色相、平均彩度、平均明度、構成画素数、針状の度合、主軸方向を抽出する属性として用いる。これらの特徴を既知の方法により領域データから計算して、例えば、図4に示すように領域番号と組にしたテーブル(以降、属性テーブルと称する)として、領域/領域属性記憶メモリ104に記憶できる。
また、領域抽出処理部103で用いる領域抽出方法によっては、この領域抽出の過程において領域の属性に当たる特徴が算出できる。このような場合には、算出した時点でこの特徴を属性として対応する領域に関連づけて領域/領域属性記憶メモリ104に記憶することもできる。この例では、k−平均領域分割の際に各領域の平均色相、平均彩度、平均明度が、ラベリングの際に各領域の構成画素数が算出できるので、領域抽出処理の中でこれらの属性を領域/領域属性記憶メモリ104に記憶するようにしている。また、ここで算出した属性(針状の度合、主軸方向)は、すべて領域データから算出できるが、用いる属性によっては(例えば、テクスチャに関する特徴)必要に応じて画像データ記憶メモリに記憶されている画像データを参照して属性を算出するように構成することもできる。
画像構造抽出処理部106は、領域/領域属性記憶メモリ104に記憶されている領域データを用いて、各領域間の位相関係を抽出する。本発明における領域間の位相関係とは、一致/包含/重複/接合/排他などといった領域と領域の関係を指し、詳細な関係として領域間の距離と方向を持つようにすることもできる。この例では、領域分割により各領域を抽出したので、任意の2つの領域が重なり合うことはない。従って、2つの領域の位相関係は、「含んでいる/含まれている(包含)」か、「隣接している(接合)」か、「離れている(排他)」のいずれかになる。この領域間の位相関係は、領域/領域属性記憶メモリ104に記憶されている領域データ(ラベリング画像)を水平方向と垂直方向に走査して、各領域ごとに隣接している領域番号を抽出することで算出することができる。但し、この方法を用いる場合は、図5に示すように画像の外縁部分に画像外を表す領域を作成しておく必要がある。図中の「0」の数値でラベリングされた画素が画像外を表す領域である。各領域に隣接する領域を抽出した結果は、例えば、図6の隣接領域番号リストの項に示すようになる。この結果から、隣接している領域の数が1つしかない領域番号2と3の領域はその隣接している領域番号1の領域に含まれていることが分かる。そして、領域番号1の隣接領域番号リストから領域番号2と3を取り除くことで、含んでいるのでなく接合している領域のリストを得ることができる。また、当然ながら、最終的な位相関係を示す領域のリストからは画像外を表す領域(この例では領域番号が0の領域)は除かなければならない。本発明における位相関係の抽出方法は前述の方法に限定するものではない。また、この例では隣接関係を4近傍で算出したが8近傍で算出してもよい。領域間の詳細な関係として用いる領域間の距離と方向は、領域の重心の座標を基準とした距離と方向を算出することで得ることができる。
画像構造記憶メモリ107は、画像構造抽出処理部106で作成した領域間の位相関係を記憶する。この例では、図7に示すような、領域番号をノードに持ち、領域間の位相関係をエッジに持つグラフ構造(以降、画像構造グラフと称する)を作成して記憶する。領域間の詳細な関係として各領域間の距離と方向を算出している場合にはこれらの値もエッジに持たせることができる。図7に示した画像構造グラフは、図8に示したラベリング画像(1つの閉領域が1つの領域を表している)から作成したもので、図7に示した1から11までの領域番号は、順に、顔面、左目、右目、口、左まゆ、右まゆ、髪の毛、左耳、右耳、首、背景の領域を指しているものとする。この例における画像構造グラフでは、包含もしくは隣接する領域間の関係のみを記述したが、重複を許すような領域を領域抽出処理部103で抽出した場合には、一致や重複などといった領域間の位相関係を追加することができる。
オブジェクト抽出処理部108では、オブジェクト辞書109を参照しながら、画像構造記憶メモリ107に記憶された画像構造グラフからオブジェクトを抽出する。本発明におけるオブジェクトとは、「人の顔」や「木」などのものに固有の名称、および、「赤い円」や「白い四角」などの領域の属性による表現を指す。
オブジェクト辞書109は、オブジェクトの名称とオブジェクトを構成する領域の属性および領域間の位相関係を記述したグラフ構造(以降、オブジェクトグラフと称する)とオブジェクト条件との組(以降、オブジェクト項目と称する)を複数保持している。オブジェクト辞書109に記憶しているオブジェクトグラフは、画像構造グラフと同じ形式である。異なる点は、属性の代わりにオブジェクトグラフの各ノードが示す番号に対応する属性条件を持っている点である。以降、オブジェクトグラフのノードが持つ番号を属性条件番号と称する。この属性条件とは、画像構造グラフとオブジェクトグラフとの対応するノードが適合するかどうかを調べるための条件である。また、オブジェクト条件とは、オブジェクトを構成する領域の属性間の相対的な関係に関する規則であり、例えば、領域Aのは構成画素数領域Bの構成画素数の2倍以上、3倍以下といった条件である。図9に、「人の顔」というオブジェクトに対応する、オブジェクト項目とこのオブジェクト項目に対応する部分の属性条件の例を示す。図中、属性条件番号301が顔面、302と303が目、304が髪の毛に相当する。
以下では、オブジェクト抽出方法の一例を図10に示すフローチャートを参照しながら説明する。まず、領域/領域属性記憶メモリ104に記憶されている属性テーブルを構成画素数で降順にソートする(S201)。これは、面積の大きな領域ほど主要な構成要素である可能性が高いという経験則に基づく。以降の処理は、ソートされた属性テーブルの領域(領域番号)を順に処理対象とする(S202)。オブジェクト辞書109に登録してある属性条件を検索して、処理対象の領域の属性が条件を満たしている属性条件番号のリストを作成する(S203)。このリストの属性条件番号を持つオブジェクトグラフと画像構造グラフとを比較する(S204)。この比較は、処理対象の領域番号を持つ画像構造グラフのノードとS203で抽出された属性条件番号を持つオブジェクトグラフのノードを一致させた上で、このオブジェクトグラフの持つノードに対応するすべての属性条件とエッジに対応する位相関係が画像構造グラフの一部またはすべてに適合するかどうかを調べる。これが適合した場合には更に、この属性条件番号に対応するオブジェクト条件を適用して、最終的に適合するかしないかを求める(S205)。最終的に適合しないと判断された場合には、S208の処理を行なう。適合した場合は、画像構造グラフの適合した部分グラフを対応するオブジェクトで置換する(S206)。この置換はオブジェクトを一意に決定することのできる番号を持つノードによるものであり、例えば、オブジェクト辞書109に登録されている対応するオブジェクト項目の番号(オブジェクト番号と称する)を用いることができる。この置換に伴って、エッジの削除やエッジに対応している位相関係や領域間の距離と方向の修正も行なう。距離と方向を算出するためのオブジェクトの重心は、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域を統合した領域から算出することができる。そして、オブジェクトに置換された画像構造グラフの部分グラフに含まれている領域番号およびこれに対応する属性をS201でソートされた属性テーブルから削除する(S207)。S208ではすべての領域について処理を行なったどうかを調べて、未処理の領域が残っていればS202に戻って処理を繰り返す。
オブジェクト抽出処理部108の結果、画像構造グラフに含まれているいくつかの部分グラフがオブジェクトに置換され、画像構造グラフの各ノードにオブジェクト番号もしくは領域番号を持つようなグラフが得られる。図7に示す画像構造グラフに対してオブジェクト抽出処理を行ない、これが図9に示したオブジェクト辞書109に登録してあるオブジェクトグラフに適合した結果得られるグラフを図11に示す。図7の領域番号1,2,3,7がそれぞれ図9の属性条件番号301,302,303,304に適合し、図9に示したオブジェクト条件も満たしているものとする。各ノード間のエッジ(位相関係)が適合しており、図7の領域番号1,2,3,7からなる部分グラフが「人の顔」というオブジェクトに対応するオブジェクト番号100を持つノードに置換されている。
ここでは、ものの固有の名称をオブジェクトとする例を示したが、オブジェクト辞書109に「赤い円」や「白い四角」などといった領域の属性に関する表現をオブジェクトの名称とするようなオブジェクト項目を作成することで、「赤い円」や「白い四角」などといったオブジェクトを抽出することができる。
また、この例では、オブジェクトグラフと画像構造グラフの比較は各ノードやエッジが適合するかしないかでオブジェクトの抽出を行なったが、ここに適合度という概念を取り入れて、最も適合度の高い画像構造グラフの部分グラフを対応するオブジェクトで置換するようにすることもできる。例えば、オブジェクト辞書109に保持している属性条件を属性を与えることによりその適合度を返すような関数、例えば、ファジィ関数で構成することにより実現できる。
本発明におけるオブジェクト辞書109は予め作成しておく必要がある。この作成方法に例としては、複数の人の顔の画像に対して前述してきたような画像構造グラフを作成し、複数の画像構造グラフを得る。そして、複数の画像構造グラフで対応するノード(領域)の属性と共通するエッジの位相関係から「人の顔」というオブジェクトに対応するオブジェクトグラフを作成することができる。また、得られた複数の画像構造グラフのノードが持つ属性間の関係のうち、共通すると見なせる関係をオブジェクト条件とすることができる。
キーワード抽出処理部110は、オブジェクト抽出処理部108により部分グラフがオブジェクトに置換された画像構造グラフを解析してオブジェクトとオブジェクト間の関係をキーワードとして抽出する。この例では、画像構造グラフ中に存在するオブジェクト番号から定まるオブジェクト(ものに固有な名称)とオブジェクトの画像中における相対的な位置、例えば、「人の顔」というオブジェクトとこのオブジェクトのの位置として「人の顔は画像の中央」というキーワードが抽出できる。また、オブジェクト間の関係として、抽出したオブジェクトの間の相対的な位置関係、例えば、「自動車の左上に信号機」というキーワードを抽出できる。
画像登録処理部111は、キーワード抽出処理部110で抽出されたキーワードを入力画像に関連づけて蓄積装置(図示せず)に登録する。
以上、説明した画像登録装置を用いることで、画像の登録時に人手によりキーワードを付与する手間を省き、キーワードを指定することで容易かつ高速に目的の画像を検索する検索装置を構成することができる。但し、本発明による画像登録装置によって抽出され画像とともに登録されるキーワードは主としてもの固有な名称であるため、検索時に検索キーとして指定されたキーワードの類義語も検索キーに加えて検索するように画像検索装置を構成するほうが好ましい。
1 画像入力部
2 領域抽出部
3 領域属性抽出部
4 画像構造抽出部
5 オブジェクト抽出部
6 キーワード抽出部
7 画像登録部
101 画像入力処理部
102 画像データ記憶メモリ
103 領域抽出処理部
104 領域 / 領域属性記憶メモリ
105 領域属性抽出処理部
106 画像構造抽出処理部
107 画像構造記憶メモリ
108 オブジェクト抽出処理部
109 オブジェクト辞書
110 キーワード抽出処理部
111 画像登録処理部
2 領域抽出部
3 領域属性抽出部
4 画像構造抽出部
5 オブジェクト抽出部
6 キーワード抽出部
7 画像登録部
101 画像入力処理部
102 画像データ記憶メモリ
103 領域抽出処理部
104 領域 / 領域属性記憶メモリ
105 領域属性抽出処理部
106 画像構造抽出処理部
107 画像構造記憶メモリ
108 オブジェクト抽出処理部
109 オブジェクト辞書
110 キーワード抽出処理部
111 画像登録処理部
Claims (10)
- 入力された画像を量子化して画像データを生成する画像入力処理手段と、
該画像入力処理手段により生成された前記画像データから、類似する特徴を持つ画素から構成される領域を抽出する領域抽出手段とを有することを特徴とする画像抽出装置。 - 前記領域抽出手段は、前記画像入力処理手段により生成された前記画像データからエッジに当たる画素を抽出してこの画素によって構成される閉領域を領域として抽出する請求項1に記載の画像抽出装置。
- さらに前記領域抽出手段により抽出された領域の持つ物理情報を当該領域の属性として抽出する領域属性抽出手段を有する請求項1または2記載の画像抽出装置。
- 前記領域属性抽出手段は、領域の色、大きさ、形状、テクスチャにそれぞれ関連する複数種類の特徴量のうちの少なくとも1種類の特徴量を領域の属性として抽出する請求項3に記載の画像抽出装置。
- さらに前記領域抽出手段により抽出された領域間の位相関係を算出して、画像を前記領域属性抽出手段により抽出された属性を持つ領域の位相関係で表現する画像構造抽出手段を有する請求項3または4記載の画像抽出装置。
- 前記画像構造抽出手段は、領域と領域との位相関係として、一致、重複、包含、接合もしくは排他のいずれかの関係を抽出する請求項5記載の画像抽出装置。
- 前記画像構造抽出手段は、領域と領域の位相関係として、領域の重心の座標を基準とした領域間の距離と方向を抽出する請求項5に記載の画像抽出装置。
- 入力された画像を量子化して画像データを生成する画像入力処理手段と、
前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出手段とを有することを特徴とする画像抽出装置。 - 画像入力処理手段により、入力された画像を量子化して画像データを生成する画像入力処理ステップと、
領域属性抽出手段により、前記画像データを参照してテクスチャに関する属性を算出する領域属性抽出ステップとを有することを特徴とする画像抽出方法。 - 画像入力処理手段により、入力された画像を量子化して画像データを生成する画像入力処理ステップと、
領域抽出手段により、前記画像入力処理手段により生成された前記画像データから類似する特徴を持つ画素から構成される領域を抽出する領域抽出ステップとを有することを特徴とする画像抽出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029962A JP2005141776A (ja) | 2005-02-07 | 2005-02-07 | 画像抽出装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005029962A JP2005141776A (ja) | 2005-02-07 | 2005-02-07 | 画像抽出装置および方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20436896A Division JP3661287B2 (ja) | 1996-08-02 | 1996-08-02 | 画像登録装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005141776A true JP2005141776A (ja) | 2005-06-02 |
Family
ID=34698242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005029962A Pending JP2005141776A (ja) | 2005-02-07 | 2005-02-07 | 画像抽出装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005141776A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164300A (ja) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | 画像表示装置、画像表示方法、プログラム及び情報記憶媒体 |
KR100811775B1 (ko) | 2006-08-28 | 2008-03-10 | 계명대학교 산학협력단 | 바이오 영상 처리 시스템 및 방법 |
KR100813168B1 (ko) | 2006-06-08 | 2008-03-17 | 삼성전자주식회사 | 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템 |
JP2010040032A (ja) * | 2008-07-31 | 2010-02-18 | Fuji Xerox Co Ltd | 検索方法、検索プログラム及び検索システム |
JP2011523137A (ja) * | 2008-06-06 | 2011-08-04 | トムソン ライセンシング | 画像の類似検索システム及び方法 |
JP2020149337A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社日立製作所 | 画像検索装置、画像検索方法およびコンピュータプログラム |
-
2005
- 2005-02-07 JP JP2005029962A patent/JP2005141776A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164300A (ja) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | 画像表示装置、画像表示方法、プログラム及び情報記憶媒体 |
JP4731303B2 (ja) * | 2005-12-09 | 2011-07-20 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示装置、画像表示方法、プログラム及び情報記憶媒体 |
KR100813168B1 (ko) | 2006-06-08 | 2008-03-17 | 삼성전자주식회사 | 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템 |
KR100811775B1 (ko) | 2006-08-28 | 2008-03-10 | 계명대학교 산학협력단 | 바이오 영상 처리 시스템 및 방법 |
JP2011523137A (ja) * | 2008-06-06 | 2011-08-04 | トムソン ライセンシング | 画像の類似検索システム及び方法 |
JP2010040032A (ja) * | 2008-07-31 | 2010-02-18 | Fuji Xerox Co Ltd | 検索方法、検索プログラム及び検索システム |
JP2020149337A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社日立製作所 | 画像検索装置、画像検索方法およびコンピュータプログラム |
JP7227799B2 (ja) | 2019-03-13 | 2023-02-22 | 株式会社日立製作所 | 画像検索装置、画像検索方法およびコンピュータプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2014321165B2 (en) | Image searching method and apparatus | |
JP4553650B2 (ja) | 画像グループの表現方法および表現方法によって導出される記述子、探索方法、装置、コンピュータプログラム、ならびに記憶媒体 | |
Soman et al. | Content based image retrieval using advanced color and texture features | |
CN106126585B (zh) | 基于质量分级与感知哈希特征组合的无人机图像检索方法 | |
JP2009282980A (ja) | 画像学習、自動注釈、検索方法及び装置 | |
JP2008097607A (ja) | 入力イメージを自動的に分類する方法 | |
TWI536186B (zh) | 三維圖檔搜尋方法與三維圖檔搜尋系統 | |
JP2005141776A (ja) | 画像抽出装置および方法 | |
JP3661287B2 (ja) | 画像登録装置および方法 | |
CN105793867A (zh) | 图像搜索方法及设备 | |
CN107169425A (zh) | 一种商品属性的识别方法及装置 | |
JP2004341940A (ja) | 類似画像検索装置、類似画像検索方法、および類似画像検索プログラム | |
JP2014211730A (ja) | 画像検索システム、画像検索装置および画像検索方法 | |
JP2016099980A (ja) | 画像セグメンテーション方法、装置、及びプログラム | |
JP5890340B2 (ja) | 画像分類装置及び画像分類プログラム | |
Belhi et al. | Deep learning and cultural heritage: the CEPROQHA project case study | |
US20130022267A1 (en) | System and method for modeling a region segmented image | |
Moreira et al. | Image provenance analysis | |
Areevijit et al. | Reeb graph based partial shape retrieval for non-rigid 3D object | |
Stottinger et al. | Translating journalists' requirements into features for image search | |
JP2011048481A (ja) | 画像処理装置及びプログラム | |
US10810744B2 (en) | Image processing device, image processing method and image processing program | |
JP6336827B2 (ja) | 画像検索装置、画像検索方法および検索システム | |
JP2014074943A (ja) | 文字付与プログラム、文字付与方法および情報処理装置 | |
Kumari et al. | A Study and usage of Visual Features in Content Based Image Retrieval Systems. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080104 |