JP5018614B2 - 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム - Google Patents
画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム Download PDFInfo
- Publication number
- JP5018614B2 JP5018614B2 JP2008106546A JP2008106546A JP5018614B2 JP 5018614 B2 JP5018614 B2 JP 5018614B2 JP 2008106546 A JP2008106546 A JP 2008106546A JP 2008106546 A JP2008106546 A JP 2008106546A JP 5018614 B2 JP5018614 B2 JP 5018614B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- recognition
- recognition target
- learning
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
しかしながら、撮影されたデジタル画像の蓄積先、例えば、パーソナル・コンピュータ(PC)、デジタルカメラ、カメラ付き携帯電話などのデジタル機器は、撮影、蓄積された画像中の被写体(認識対象)を判別する機能をもっていない。
よって、画像の取り扱いに関するデジタル機器と人とのセマンティックギャップは狭まることはなく、現状では、大量の画像データの分類や検索には、人手の介入が不可欠である。
人手により、撮影画像の内容に関するメタデータを記述することも可能であるが、手間がかかるため、撮影した画像すべてに意味、内容等に関するメタデータを記載することは、現実的ではない。
現実世界で撮影された画像に対して、コンピュータなどのデジタル機器が、その画像中に含まれる被写体を一般的な名称で認識することを「一般物体認識(generic object recognition)」と呼び、画像認識の研究において最も重要な課題の一つである(例えば、非特許文献1、2など参照)。
identificationは個々の物体(the object)を区別する認識であり、入力された画像とデータベース中のモデルの照合を行い、どのモデルに対応する物体が画像中に存在するかどうかを出力結果とする。
一方、classificationは物体の種類(an object)を区別する認識で、人間が決めた分類(class)と画像中の物体(被写体)とを対応付け、物体のクラス名(多くの場合は一般名称)を出力結果とする。
「物体認識」はidentificationを指すのが一般的であるが、「一般物体認識」はclassificationの認識を意味するものであり、本明細書においても、これらの用語の定義に基づいて説明する。
例えば、撮影された時間を用いれば、画像データだけでは難しい、「夕日」であるか「朝日」であるかの区別は、容易に行うことが可能となる。
メタデータ中の重要な情報として、位置情報がある。位置情報は通常GPS(Global Positioning System)によって取得するが、最近のデジタルカメラや携帯電話にはGPSが内蔵されたものもあり、撮影した画像に位置情報を、メタデータとして埋め込むことが可能な撮像機器が多く登場している。
また、画像ファイル中の位置情報を、画像認識に利用することも一部で試みられている(例えば、特許文献1参照)。
認識対象画像を入力するステップ(S105)と、
前記認識対象画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成するステップ(S110)と、
前記分類器を用いて認識結果を得るステップ(S135)と、
前記認識対象画像における認識対象の有無を判断するステップ(S140、S145、S150)と、
を含むことを特徴とする。
前記小領域パッチ画像に基づき画像特徴量を抽出するステップ(S115)と、
前記抽出された画像特徴量からヒストグラムを作成するステップ(S120)と、
前記作成されたヒストグラムに最も近い特徴ベクトルをコードブックより選択するステップ(S125)と、
前記選択された特徴ベクトルを正規化するステップ(S130)と、
を備えたことを特徴としてもよい。
前記学習画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成するステップ(S92)と、
前記分類器を作成するステップ(S96)と、
によって生成されてもよい。
前記学習画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成するステップ(S92)と、
前記小領域パッチ画像の画像特徴量を抽出するステップ(S93)と、
前記抽出された画像特徴量からコードブックを作成するステップ(S94)と、
前記コードブックを用いて、前記抽出された画像特徴量からヒストグラムを作成するステップ(S95)と、を備えてもよい。
前記画像認識手段は、
認識対象画像を入力する入力部と、
前記認識対象画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成する小領域パッチ画像生成部と、
前記分類器を用いて認識結果を得る認識結果取得部と、
前記認識対象画像における認識対象の有無を判断する判断部と、
を有することを特徴とする。
画像特徴量を抽出する画像特徴量抽出部と、
前記画像特徴量抽出部から抽出された画像特徴量からヒストグラムを作成するヒストグラム作成部と、
前記作成されたヒストグラムに最も近い特徴ベクトルをコードブックより選択する特徴ベクトル選択部と、
前記特徴ベクトル選択部から選択された特徴ベクトルを正規化する正規化部と、
前記正規化部により正規化された特徴ベクトルに基づき、前記分類器を用いて認識結果を得る認識結果取得部と、を有することとしてもよい。
前記ヒストグラム作成部は、前記画像特徴量抽出部により抽出された複数の画像特徴量から生成されたそれぞれのヒストグラムを連接して、一つのヒストグラムを生成することとしてもよい。
前記ヒストグラム作成部は、前記認識対象画像の画像特徴量から生成されたヒストグラムと、前記小領域パッチ画像の画像特徴量から生成されたヒストグラムと、を連接して一つのヒストグラムを生成することとしてもよい。
学習画像および該学習画像の分類を入力する手段と、
前記学習画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成する手段と、
前記小領域パッチ画像を用いて分類器を作成する手段と、
によって生成されることとしてもよい。
学習画像および該学習画像の分類を入力する手段と、
前記学習画像の撮影位置に対応する航空写真画像および/または地図画像から小領域パッチ画像を生成する手段と、
前記小領域パッチ画像の画像特徴量を抽出する手段と、
前記抽出された画像特徴量からコードブックを作成する手段と、
前記コードブックを用いて、前記抽出された画像特徴量からヒストグラムを作成する手段と、
前記ヒストグラムを用いて分類器を作成する手段と、
によって生成されることとしてもよい。
学習画像および該学習画像の分類を入力する手段と、
前記学習画像の撮影位置に対応する、縮尺の異なる複数の航空写真画像および/または地図画像から、縮尺の異なる複数の小領域パッチ画像を生成する手段と、
前記複数の小領域パッチ画像の画像特徴量をそれぞれ抽出する手段と、
前記抽出された複数の画像特徴量からコードブックを作成する手段と、
前記コードブックを用いて、前記抽出された複数の画像特徴量からそれぞれのヒストグラムを作成し、これらヒストグラムを連接して一つのヒストグラムを生成する手段と、
前記一つのヒストグラムを用いて分類器を作成する手段と、
によって生成されることとしてもよい。
学習画像および該学習画像の分類を入力する手段と、
前記学習画像の撮影位置に対応する航空写真画像および/または地図画像から一つの小領域パッチ画像を生成する手段と、
前記学習画像および前記小領域パッチ画像の画像特徴量をそれぞれ抽出する手段と、
前記抽出された複数の画像特徴量からコードブックを作成する手段と、
前記コードブックを用いて、前記抽出された複数の画像特徴量からそれぞれのヒストグラムを作成し、これらヒストグラムを連接して一つのヒストグラムを生成する手段と、
前記一つのヒストグラムを用いて分類器を作成する手段と、
によって生成されることとしてもよい。
「Flickr」は撮影画像を投稿(アップロード)、共有(ダウンロード)することが出来るソーシャルサイトであり、毎日100万以上の画像が投稿されるといわれている。本明細書において、以下、Flickrへ投稿(アップロード)された画像を「Flickr画像」と言う。Flickrでは、撮影画像を投稿する場合、その位置情報を付加させることを強く推奨している。従って、今後「Flickr」に投稿される位置情報付きの画像データ、すなわち、「Flickr画像」は増え続けると予想される。
航空写真画像や地図画像は、位置情報(緯度経度)と対応しているので、画像の特徴を持った位置情報とみなせる。したがって、位置情報を記述、識別する客観的な手段に成りうる。
これらの航空写真画像と地図画像についてはその画像を拡大、縮小して閲覧することが出来る。現在公開されている範囲では、0〜19の、20通りのズームレベルをもつものも存在する。
画像の特徴を記述する手法としては、画素値の統計や固有値を記述するものから、局所的な特徴を記述するものまで多種にわたる。
本例では、特徴抽出のために局所特徴の一種であるSIFT特徴を用いる。また、この局所特徴を簡潔に記述するために後述するBag of Keypoints手法を用いてデータをベクトル量子化する(図3参照)。
なお、別な手法として、似ている画像同士では画像を構成する色が似ているという仮定に基づき、画像中に色がどのような割合で含まれているのかを比較する色ヒストグラム法(color histogram method)を用いて特徴抽出を行うことも可能である。量子化された色空間に形成された色ヒストグラムを使用すると、色情報が各画素に割り当てられた元の画像よりもマッチングに使用される情報量が減少して、演算量も減ることが期待できる。
SIFT特徴は、画像の拡大縮小、回転や視点の変化のいずれに対してもロバスト(強靭)であるとの性質がある。SIFT特徴の抽出は、特徴点の抽出とその特徴点における特徴ベクトルの抽出の2つのステップに分けることができる。
それぞれのズームレベルについて、まず9枚の航空写真画像のタイル(256×256 ピクセル)を3×3で結合する。このとき、位置情報を含む航空写真画像を中心に配置する。この位置情報が正方形の中心になるように、この結合された航空写真画像から512×512ピクセルの正方形部分を切り抜き、これをFlickr画像に対応する航空写真画像(小領域パッチ画像)とする。
本例では、SIFT特徴を抽出するために、SIFT++というツールを用いた。このツールにおけるアルゴリズムは、SIFTを提唱したLoweアルゴリズムとほぼ同一である。
1.格子点の間隔を決定する。本例においては、画像に対して、10画素ごとにGRID点抽出を行い、それらの点に基づきSIFT特徴量を計算することとした。
2.画像から格子点を抽出し、予め決められた複数のスケールで、それぞれの点について勾配方向を計算する。格子点の総数は画像の画素数と格子点の間隔に依存する。
3.抽出した特徴点に対して、SIFT特徴量を計算する。
Bag of Keypointsモデルとは、画像を局所特徴の集合と捉えた手法である。局所特徴をベクトル量子化し、Visual Wordsと呼ばれる特徴ベクトルを生成する。それらをまとめたものをコードブックと呼び、それを記述子として画像全体の特徴ベクトルを生成する。これにより、画像をVisual Wordsの集合(bag)として表現することができる。
1.全画像データから特徴点を抽出する。
2.それをベクトル量子化し、コードブックを作成する。
3.コードブックをもとに、学習画像の特徴ベクトルを生成する。
4.同様にテスト画像の特徴ベクトルも生成し、分類器により画像がどのカテゴリに属するか決定する。
まず、Visual Wordsを生成するために、GRID点におけるSIFT特徴を用いて全ての画像から局所特徴を抽出する。次に、抽出したもののうち、学習画像についての局所特徴をベクトル量子化し、各々のクラスタの中心を求めることによりVisual Wordsを求め、コードブックとする。
これは、クラスタ数kと、各クラスタの初期の重心(これはランダムでもよい)を予め定めておき、重心と各ベクトルとの距離の平均が最小になるように反復して重心を更新していく手法である。コードブックの大きさは、クラスタ数kに依存する。
本例では、k=300に固定してベクトル量子化を行なった。k-Means法におけるクラスタリング処理では、ベクトル間の距離を計測する必要があるが、その距離尺度として、本例ではユークリッド距離を用いた。
1.各キーワードのグループについて、正例画像(OK画像)と負例画像(NG画像)を明確にする。
2.各キーワードのグループの全ての画像から抽出された特徴量を用いて、コードブックを作成する。
3.各キーワードから抽出したコードブックを用いて、そのキーワードの画像について、コードブック についてのヒストグラムを作成する。
1.各画像が含んでいる位置情報から、対応する航空写真画像(本例では三種類のズームレベル)を探し、それぞれ3×3=9枚ずつ用意する。
2.各ズームレベル航空写真画像について、位置(緯度経度)が中央になるように256×256ピクセルの正方形に切り抜く。
3.航空写真画像について、対応する画像のキーワードに対してズームごとに独立でグループ化し、画像の場合と同様に特徴量、コードブックの順に求める。
コードブックの作成は、クラスタリング処理を伴う。一つのキーワードについて、精度の高いコードブック を作成するには、著しく膨大な量のデータをクラスタリングする必要がある。これは処理時間に対してトレードオフの問題となる。
本例においては、クラスタリングに用いる特徴点を、10分の1の確率で特徴点を抽出するよう絞込みを行い処理の高速化を図った。
SVMは、ニューロンのモデルとして最も単純な線形しきい素子を用いて、2クラスのパターン識別器を構成する手法である。
カーネル学習法と組み合わせると非線形の識別器になる。この拡張はカーネルトリックと呼ばれる手法で、このカーネルトリックにより、現在知られている多くの手法の中でも最も認識性能の優れた学習モデルの一つであると考えられている。
なお、別の手法として、当該技術分野に公知の方法から選択することができ、最近傍法を用いても良い。最近傍法とは、補間処理の手法の一つであり、ある画素の周辺で一番近い画素の値を設定する手法である。より具体的には、例えば、
「http://www.microsoft.com/japan/msdn/academic/Articles/Algorithm/04」にその処理内容が記載されている。最近傍法は、処理速度が高速であるというメリットを有している。
学習と分類のために用いるSVMへの入力ベクトルは、位置情報(緯度経度)のベクトルと、コードブックに関するヒストグラム(bag)によって構成される。
学習処理を行なうプログラムの動作が開始されると(S90)、ある対象(例えば、「山」「海」「ライオン」など。本明細書においてはこれらを総称して「分類」とも言う。)についてその対象が学習画像に含まれていることが予めわかっている正例画像、および、その対象が画像に含まれていないことが予めわかっている負例画像が予め蓄積されている画像を、写真本体記憶部15より読み出す(S91)。
分類器の学習精度を高めるため、正例画像、負例画像の枚数は、それぞれ100枚以上が好ましい。
その際、読み出した画像の縦横のいずれか一方または縦横の両方が480画素以上の場合は、画像の縦横比を維持しながら、縦横のいずれもが480画素未満となるように画像を縮小することが好ましい。
その際、画像の位置座標が航空写真画像の中央となるように対応づけを行なう(図1の14a〜14c)。
小領域パッチ画像としては、縮尺の異なる航空写真画像または地図画像を用いる。
分類器の精度を向上させるため、3つ以上の異なる縮尺を用いることが好ましい。
画像特徴量として、本発明の効果を奏するためには特に限定はなく、SIFT特徴量、Haar特徴量のどちらを用いてもよいが、SIFT特徴量を用いる場合について以下に説明する。
処理データ量と精度向上のトレードオフの観点より、各画像について縦横10画素間隔で格子点を設定することが好ましい。さらに、前記特徴点の近傍領域において、輝度勾配の方向ヒストグラム(「SIFT特徴ベクトル」とも言う)を算出する。
その際、近傍領域の範囲を4通り設定し、一つの特徴点から4つのSIFT特徴ベクトルを算出することが、精度向上の観点から好ましい。
以上の処理により、1枚の学習画像から約数千個のSIFT特徴ベクトルが求められる。
より具体的には、数百万個程度のすべてのSIFT特徴ベクトルから、ランダムサンプリングにより、1万個程度を選択する。
次に、選択された1万個程度のSIFT特徴ベクトルから、300個の代表ベクトルを、クラスタ分析により求める。クラスタリング法としては特に限定はなく、k-meansクラスタリング法を用いても良い。
k-meansクラスタリング法(k平均法)とは、分散最適手法の一つで、分割の良さの評価関数を求め、その評価関数を最小化するように、k個のクラスタを分割する代表的な手法である。
さらに、ヒストグラムの要素の合計が1となるように正規化する。この正規化されたものが、画像を表すbag of keypointsベクトルとなる。
なお、分類器の生成(S96)は、色ヒストグラム法により得られた正例画像のヒストグラム、負例画像のヒストグラムを学習データとして、分類器へ入力することで分類器を生成する。分類器の実現方法は、当該技術分野に公知の方法から選択することができ、前述した最近傍法を用いても良い。
学習処理を実行するプログラム(S90)は、CPUにより、上記した処理を、全画像について実行する(S97)。
認識処理を行なうプログラムの動作が開始されると(S100)、認識対象画像が入力される(S105)。
その際、読み出した画像の縦横のいずれか一方または縦横の両方が480画素以上の場合は画像の縦横比を維持しながら、縦横のいずれもが480画素未満となるように画像を縮小する。
以上の処理により、1枚の学習画像から約数千個のSIFT特徴ベクトルが求められることになる。
次に、当該得られたbag-of-keypointsベクトルを分類器に入力し、認識対象画像に対する認識結果値を得る(S135)。分類器として、前記学習処理によって学習済みであるサポートベクターマシン(SVM)を用いるのが好適である。
認識処理を実行するプログラムS100は、CPUにより以上の処理を全画像について実行する(S155)。
各画像について本試験のために、5種類のキーワード(景色、ラーメン、山、神社、海岸)を与えた。
本試験では、使用する航空写真画像のズームレベルは10、12、14 の3種類とする。
Flickrで収集した各画像について、収集した航空写真画像を用いて、その位置情報を表す航空写真画像を対応づけた。
これにより、画像と航空写真画像、位置情報のデータセットから、一つのキーワードについて各グループのデータが作成される。
本試験では、それぞれのグループから、200枚をランダムに抽出して、SVMへの入力データセットを作成した。
また、本試験では、テストデータ全体をより客観的に評価するため、学習と分類の方法としてCross Validationを用いた(図13参照)。
すなわち、前述のSVMへの入力データの作成の際、学習データと分類データがそれぞれ等しく成るようにランダム抽出を行う。
SVMによる出力結果から、情報検索の評価と同様に、再現率(Recall)と、適合率(Precision)を求めることができる。また、再現率と適合率の両方を考慮した指標として、F値と、再現率−適合率グラフを求めることができる。
特に、再現率−適合率グラフでは、両方のトレードオフの関係を検証可能である。
1つのキーワードにおいて、9通りのグループのデータセットをそれぞれ評価する。さらに、それぞれのグループを5つのfoldに分割しているので、5つのfoldのそれぞれの平均適合率を求め、これらとこれらの平均を示す。1つのキーワードにおいて、合計で45個の平均適合率を計算する。
ただし、各表において、画像をI、位置情報をG、10(表1での(1))、12(表1での(2))、14(表1での(3))を航空写真画像のそれぞれのレベルとして、グループの組み合わせを示す。
これらの位置情報には、都会や都市部全体的な割合が多く、都市部の局所特徴量のみでは、風景を識別するのは困難である。したがって、風景写真の画像と航空写真画像の統合した結果が最も精度が高くなると考えられる。
また、デジタルカメラやカメラ付き携帯電話等の撮像機器に組み込むことによって、撮影した位置情報付きデジタル画像の自動分類、検索に寄与する。
また、デジタルカメラ等で撮像された画像の自動タグ付け、自動説明文生成、自動アルバム作成など、様々な応用技術、応用製品を提供可能となる。
そして、独立した製品として、または、他の製品に組み込むソフトウエアとして、または、インターネット上で利用可能なシステムとして、など、好適に利用され得る。
12:マッピングサービス記憶部
13a〜13c:位置情報に対応した各縮尺の航空写真画像または地図図形の記憶部
14:位置座標調整済みの各縮尺の航空写真画像または地図図形の記憶部
15:画像本体記憶部
16:メタデータ記憶部
21:コードブック記憶部
22:ヒストグラム記憶部
23:分類器への入力データ記憶部
24:入力ベクトル記憶部
Claims (9)
- 所定の認識対象を含む複数の学習用画像と、前記学習用画像の各々に対応する、前記学習用画像の撮影位置を含む航空写真画像および/または地図画像とを用いた学習処理によって生成された、画像中の前記認識対象の有無を判別するための判別器と、
認識対象画像と、前記認識対象画像の撮影位置を含む航空写真画像および/または地図画像とを取得する画像取得手段と、
前記判別器を用いて、前記認識対象画像中に前記認識対象が含まれているかどうかを判別する判別手段とを備えたことを特徴とする画像認識装置。 - 前記判別器は、前記学習用画像から得られた画像特徴量と、前記学習用画像に対応する航空写真画像および/または地図画像から得られた画像特徴量とを組み合わせたものであり、
前記判別手段は、前記認識対象画像から画像特徴量を取得するとともに、前記認識対象画像に対応する航空写真画像および/または地図画像から画像特徴量を取得し、前記画像特徴量の両方を組み合わせて前記判別を行うものであることを特徴とする請求項1記載の画像認識装置。 - 前記航空写真画像および/または地図画像は、縮尺の異なる複数の画像であることを特徴とする請求項1又は2記載の画像認識装置。
- 前記学習用画像に対応する前記航空写真画像および/または地図画像の中心位置が、前記学習用画像の撮影位置とほぼ一致するものであり、
前記認識対象画像に対応する前記航空写真画像および/または地図画像の中心位置が、前記認識対象画像の撮影位置とほぼ一致するものであることを特徴とする請求項1乃至3のいずれか一項に記載の画像認識装置。 - 前記認識対象画像は、前記認識対象画像の撮影位置を表す位置情報が関連づけられたものであり、
前記画像取得手段は、前記認識対象画像と関連づけられた位置情報に基づいて、複数の位置における航空写真画像および/または地図画像が記憶された記憶手段から、前記認識対象画像の撮影位置を含む航空写真画像および/または地図画像を取得するものであることを特徴とする請求項1乃至4のいずれか一項に記載の画像認識装置。 - 前記学習用画像に対応する前記航空写真画像および/または地図画像の中心位置が、前記学習用画像の撮影位置とほぼ一致するものであり、
前記画像取得手段は、前記記憶手段に記憶された複数の航空写真画像および/または地図画像から、前記認識対象画像の撮影位置をほぼ中心とする航空写真画像および/または地図画像を生成するものであることを特徴とする請求項5記載の画像認識装置。 - 前記記憶手段が、ネットワークを介してアクセス可能なデータベースであることを特徴とする請求項5又は6記載の画像認識装置。
- 認識対象画像と、前記認識対象画像の撮影位置を含む航空写真画像および/または地図画像とを取得するステップと、
所定の認識対象を含む複数の学習用画像と、前記学習用画像の各々に対応する、前記学習用画像の撮影位置を含む航空写真画像および/または地図画像とを用いた学習処理によって生成された、画像中の前記認識対象の有無を判別するための判別器を用いて、前記認識対象画像中に前記認識対象が含まれているかどうかを判別するステップとを含むことを特徴とする画像認識方法。 - コンピュータを、請求項1乃至7のいずれか一項に記載の画像認識装置として機能させるための画像認識プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008106546A JP5018614B2 (ja) | 2008-04-16 | 2008-04-16 | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008106546A JP5018614B2 (ja) | 2008-04-16 | 2008-04-16 | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009258953A JP2009258953A (ja) | 2009-11-05 |
JP2009258953A5 JP2009258953A5 (ja) | 2011-06-02 |
JP5018614B2 true JP5018614B2 (ja) | 2012-09-05 |
Family
ID=41386297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008106546A Expired - Fee Related JP5018614B2 (ja) | 2008-04-16 | 2008-04-16 | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5018614B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5352435B2 (ja) * | 2009-11-26 | 2013-11-27 | 株式会社日立製作所 | 分類画像作成装置 |
JP5594681B2 (ja) * | 2010-02-22 | 2014-09-24 | 国際航業株式会社 | 測量データの分類方法、及び測量データの分類装置 |
JP2011210111A (ja) * | 2010-03-30 | 2011-10-20 | Nippon Telegr & Teleph Corp <Ntt> | 画像特徴量生成装置及び方法及びプログラム |
JP5870014B2 (ja) * | 2012-12-06 | 2016-02-24 | 日本電信電話株式会社 | 画像辞書生成装置、画像辞書生成方法及びコンピュータプログラム |
US10169686B2 (en) * | 2013-08-05 | 2019-01-01 | Facebook, Inc. | Systems and methods for image classification by correlating contextual cues with images |
JP6765977B2 (ja) * | 2017-01-31 | 2020-10-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR101958275B1 (ko) * | 2017-07-07 | 2019-03-14 | 한국항공우주연구원 | 영상 패치 정규화 방법 및 시스템 |
WO2019168142A1 (ja) | 2018-03-02 | 2019-09-06 | 興和株式会社 | 画像分類方法、装置及びプログラム |
JP7042690B2 (ja) * | 2018-05-23 | 2022-03-28 | 株式会社パスコ | 学習用データ生成装置 |
WO2024042669A1 (en) * | 2022-08-25 | 2024-02-29 | Nec Corporation | Training apparatus, training method, and non-transitory computer-readable storage medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165700A (ja) * | 2007-01-05 | 2008-07-17 | Seiko Epson Corp | 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム |
-
2008
- 2008-04-16 JP JP2008106546A patent/JP5018614B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009258953A (ja) | 2009-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5018614B2 (ja) | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム | |
US8908976B2 (en) | Image information processing apparatus | |
CN107003977B (zh) | 用于组织存储在移动计算设备上的照片的***、方法和装置 | |
JP5318115B2 (ja) | 場所別画像分類 | |
US9275269B1 (en) | System, method and apparatus for facial recognition | |
US8594385B2 (en) | Predicting the aesthetic value of an image | |
Zhao et al. | Learning mid-level filters for person re-identification | |
JP5782404B2 (ja) | 画質評価 | |
Knopp et al. | Avoiding confusing features in place recognition | |
TWI338265B (en) | System, apparatus, method and program for processing image | |
JP5934653B2 (ja) | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 | |
US20150317511A1 (en) | System, method and apparatus for performing facial recognition | |
Farinella et al. | Representing scenes for real-time context classification on mobile devices | |
JP2011517818A (ja) | 撮影位置シーケンス情報を用いた画像分類 | |
Guan et al. | On-device mobile landmark recognition using binarized descriptor with multifeature fusion | |
Kim et al. | Classification and indexing scheme of large-scale image repository for spatio-temporal landmark recognition | |
Yap et al. | Efficient mobile landmark recognition based on saliency-aware scalable vocabulary tree | |
Jiang et al. | Video searching and fingerprint detection by using the image query and PlaceNet-based shot boundary detection method | |
Golge et al. | FAME: face association through model evolution | |
Lee et al. | A scalable service for photo annotation, sharing, and search | |
Yaegashi et al. | Can geotags help image recognition? | |
JP5834950B2 (ja) | 写真系列の類似度算出装置、方法、及びプログラム | |
Weyand et al. | Fixing wtfs: Detecting image matches caused by watermarks, timestamps, and frames in internet photos | |
Liu et al. | Scene-oriented aesthetic image assessment | |
Farinella et al. | Representation models and machine learning techniques for scene classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110418 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120501 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120528 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150622 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |