JP2011517818A - 撮影位置シーケンス情報を用いた画像分類 - Google Patents

撮影位置シーケンス情報を用いた画像分類 Download PDF

Info

Publication number
JP2011517818A
JP2011517818A JP2011504015A JP2011504015A JP2011517818A JP 2011517818 A JP2011517818 A JP 2011517818A JP 2011504015 A JP2011504015 A JP 2011504015A JP 2011504015 A JP2011504015 A JP 2011504015A JP 2011517818 A JP2011517818 A JP 2011517818A
Authority
JP
Japan
Prior art keywords
position sequence
trace
shooting position
memory system
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011504015A
Other languages
English (en)
Other versions
JP2011517818A5 (ja
JP5461523B2 (ja
Inventor
ジエボー ルオ
ジュインソン ユエン
Original Assignee
イーストマン コダック カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イーストマン コダック カンパニー filed Critical イーストマン コダック カンパニー
Publication of JP2011517818A publication Critical patent/JP2011517818A/ja
Publication of JP2011517818A5 publication Critical patent/JP2011517818A5/ja
Application granted granted Critical
Publication of JP5461523B2 publication Critical patent/JP5461523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

時間的に関係のある画像群の分類法が開示され、この分類法においては、時間的に関係のある画像群から撮影位置シーケンスが特定される。この撮影位置シーケンスに集合的に関連付けられている撮影位置シーケンス情報は、予め決められた撮影位置シーケンスの特徴の複数のセットの各々と比較される。各セットは、予め決められた分類に関連付けられている。時間的に関係のある画像群に関連付けられる特定された分類は、少なくとも比較ステップの結果に基づいて特定され、特定された分類はプロセッサアクセス可能メモリシステムの中に保存される。

Description

本発明は、人工知能と画像理解、特に、時間的に関係のある画像集合の分類に関する。
一般の人々による写真収集は広く普及している。このような写真の集合から意味論的に重要な情報を抽出することは、機械学習とコンピュータビジョンの分野において、盛んに研究が進められている領域である。オブジェクト認識、すなわち顔、車、草、水、空その他、特定の種類のオブジェクトの検出に関する問題に焦点を当てた研究結果が数多く報告されている。そのほとんどは、画像の中から得られる低レベルの視覚的特徴(色、テクスチャ、線等)の利用に頼るものである。近年では、シーン検出や活動認識といった、意味論的により複雑な情報の抽出に対する関心がますます高まっている。たとえば、これまでのシステムでは、シーンやオブジェクトの視覚的分類を通じたイベント認識が試みられており、一例として、L.−J.リとL.フェイフェイ“What, where and who classfying events by scene and object recognition”,in Proc.IEEE Intl.Conf.on Computer Vision,2007を参照されたい。このシステムは、ポロ、ボート競技、boche等、多数の独特のスポーツイベントの認識においては一定の成功を収めたと報告されているが、これは、この種のイベントの写真からは特異な視覚的特徴が観察できることによる。
上記の先行技術のいずれにおいても、従来通りの画像のクラスタリングと分類は、個々の画像に基づいて、たとえば色やエッジヒストグラムのような画像に基づく特徴、すなわち視覚的特徴集合(bag of visual features)だけを使って実行される(S.ラゼブニック、C.シュミット、J.ポンス“Beyond bags of features:spatial pyramid matching for recognizing natural scene categories”,in Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2006参照)。
しかしながら、同じイベントに属する複数の画像は相互に時間的および空間的相関関係を有するため、画像同士は独立していないことが多い。より詳しくは、個人的な画像集合には、画像の特徴以外に、コンテキスト情報が豊富にあり、意味論的理解のためには、通常、このようなコンテキスト情報が画像特徴を補うことになる。
"What, where and who classfying events by scene and object recognition",L.−J.リとL.フェイフェイ,in Proc.IEEE Intl.Conf.on Computer Vision,2007 "Beyond bags of features:spatial pyramid matching for recognizing natural scene categories",S.ラゼブニック、C.シュミット、J.ポンス,in Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2006
したがって、画像間の関係を考慮した、改良された画像分類技術が求められている。
本発明の各種の実施形態による、時間的に関係のある画像群の分類を容易にするシステムと方法によって、上記の問題に取り組み、当業界における技術的解決を実現する。本発明のある実施形態において、撮影位置シーケンスは、時間的に関係のある画像群から特定される。撮影位置シーケンス情報は、撮影位置シーケンスに集合的に関連付けられており、予め決められた撮影位置シーケンス特徴の複数のセットの各々と比較される。各セットは、予め決められた分類に関連付けられている。時間的に関係のある画像群に関連付けられると特定される分類は、少なくとも比較ステップの結果に基づいて特定され、特定された分類は、プロセッサからアクセス可能なメモリシステムの中に保存される。
本発明の利点の1つは、関連する撮影位置情報を有する個人的画像集合を使ってイベントを認識することである。
上記の実施形態のほかにも、図面を参照し、以下の詳細な説明を読むことによって他の実施形態が明らかとなるであろう。
本発明の実施形態を実現するためのフローチャートである。 本発明の実施形態を実現するためのフローチャートである。 空間的範囲と移動速度に関する異なるイベントの特徴を示す表である。 市内観光のイベントに関する空間と時間のトレース例を示す図である。 ハイキングのイベントに関する空間と時間のトレース例を示す図である。 分類表の例と、複数の方法により得られる手がかりからの認識結果を組み合わせるために用いられる信頼度を計算するための手順を示す図である。 本発明のある実施形態による、写真集合および関連する撮影位置トレース(trace)を用いたイベント認識システムを示す図である。
集合的推論は、画像分類に有益なツールとなりうる。たとえば、特定の写真に関して、それが仕事かレジャーかを区別することは難しいかもしれないが、同じイベントに属する他の写真を見れば、その予測はもっとつきやすくなる可能性がある。本発明の実施形態において、画像分類は、関連付けられた撮影位置情報を有する、時間的に関係のある画像集合のコンテキストの中で実行される。「画像分類」という語句は、本明細書において、時間的に関係のある画像群を、予め決められた活動のセットの中の1つに分類するプロセスを指す。さらに、「イベント認識」と「活動認識」という語句は、本明細書において、画像分類の例である。またさらに、「画像」、「写真」、「フォト」という単語は、本明細書においては互換的に使用される。
本発明は、本明細書に記載の実施形態を組み合わせたものも含む。「特定の実施形態」その他への言及は、本発明の少なくとも1つの実施形態の中にある特徴を指す。「ある実施形態」または「特定の実施形態」その他に別々に言及する場合は、必ずしも同じ実施形態(複数の場合もある)を指すとは限らず、これらの実施形態は、特にその旨が明記されている、または当業者にとって容易に明らかでないかぎり、相互に排他的ではない。「方法」または「複数の方法」その他への言及において単数形および/または複数形が使用されても、限定するものではない。
さらに、別段の明確な断りがなく、文脈により必要でないかぎり、「または」という単語は、本明細書において、非排他的な意味で使用されることに注意するべきである 。
デジタルカメラにGPS(全地球測位システム)センサが搭載されていれば、撮影された個々の画像に関して、画像撮影の緯度、経度、時刻を収集することができる。さらに、撮影された個々の画像に関して、当業界で周知の技術を用いて、次のような情報を取得することができる。たとえば色やエッジヒストグラム等の低レベルの画像特徴、意味論的なオブジェクトとシーンの認識、オブジェクト検出器からの出力(たとえば顔)と画像分類器(屋内/屋外検出器、浜辺検出器等)からの出力、および同じ時間、同じ場所で撮影された画像(たとえば、同じイベントまたは同じ画像フォルダ内の画像)から得られるその他のコンテキスト情報。
図6は、本発明のある実施形態によるイベント認識のためのシステム100を示している。システム100は、データ処理システム110、周辺システム120、ユーザインタフェースシステム130、プロセッサアクセス可能メモリシステム140を備える。プロセッサアクセス可能メモリシステム140、周辺システム120、ユーザインタフェースシステム130は、データ処理システム110に通信可能に接続される。
データ処理システム110は、図1および図1Aのプロセス例を含む本発明の各種の実施形態のプロセスを実行する、1つまたは複数のデータ処理デバイスを備える。「データ処理デバイス」または「データプロセッサ」という語句は、あらゆるデータ処理デバイスを含むものとされ、これにはたとえば、CPU(中央処理ユニット)、デスクトップコンピュータ、ラップトップコンピュータ、メインフレームコンピュータ、個人用携帯情報端末、Blackberry(商標)、デジタルカメラ、携帯電話または、データを処理し、データを管理し、デーを取り扱うその他のデバイスまたはその構成要素が含まれ、電気、磁気、光学、生物学的構成要素またはその他のいずれで実装されているかを問わない。
プロセッサアクセス可能メモリシステム140は、情報を保存するように構成された1つまたは複数のプロセッサアクセス可能メモリを含み、この情報とは、本明細書で説明する図1と図1Aのプロセス例をはじめとする本発明の各種実施形態のプロセスを実行するのに必要な情報を含む。プロセッサアクセス可能メモリシステム140は、複数のコンピュータおよび/またはデバイスを介してデータ処理システム110に通信可能に接続された複数のプロセッサアクセス可能メモリを含む、分散型のプロセッサアクセス可能メモリシステムであってもよい。その一方で、プロセッサアクセス可能メモリシステム140は、分散型のプロセッサアクセス可能メモリである必要はなく、したがって、単独のデータプロセッサまたはデバイスの中に配置された1つまたは複数のプロセッサアクセス可能メモリであってもよい。
「プロセッサアクセス可能メモリ」という語句は、揮発性、不揮発性の電子、磁気、光またはその他のあらゆるプロセッサアクセス可能データ保存デバイスを含むものとし、たとえば、これらに限定されないが、レジスタ、フロッピー(登録商標)ディスク、ハードディスク、Compact Disc、DVD、フラッシュメモリ、ROM、RAMであってよい。
「通信可能に接続される」という語句は、無線か有線かを問わず、デバイス、データプロセッサまたはプログラム間の、データが通信されてもよいあらゆる種類の接続を含むものとする。さらに、「通信可能に接続される」という語句は、単独のデータプロセッサ内のデバイスまたはプログラム間の接続、異なるデータプロセッサの中に配置されたデバイスまたはプログラム間の接続、およびデータプロセッサの中には配置されていないデバイス間の接続を含むものとする。この点に関して、プロセッサアクセス可能メモリシステム140はデータ処理システム110とは別に示されているが、当業者であれば、プロセッサアクセス可能メモリシステム140は、全体的または部分的にデータ処理システム110の中に格納されていてもよいことがわかるであろう。さらにこの点に関して、周辺システム120とユーザインタフェースシステム130はデータ処理ステム110とは別に示されているが、当業者であれば、これらのシステムの一方または両方が、全体的または部分的にデータ処理システム110の中に格納されていてもよいことがわかるであろう。
周辺システム120は、デジタル画像をデータ処理システム110に供給するように構成された1つまたは複数のデバイスを含んでいてもよい。たとえば、周辺システム120は、デジタルビデオカメラ、携帯電話、一般的なデジタルカメラまたはその他のデータプロセッサを含んでいてもよい。データ処理システム110は、周辺システム120の中のあるデバイスからデジタルコンテンツ記録(digital content records)を受け取ると、そのデジタルコンテンツ記録をプロセッサアクセス可能メモリ140の中に保存してもよい。
ユーザインタフェースシステム130は、マウス、キーボード、別のコンピュータまたは、データ処理システム110へのデータの入力元となるあらゆるデバイスまたはデバイスの組み合わせを含んでいてもよい。この点に関して、周辺システム120はユーザインタフェースデバイス130とは別に示されているが、周辺システム120はユーザインタフェースシステム130の一部として含まれていてもよい。
ユーザインタフェースシステム130はまた、表示デバイス、プロセッサアクセス可能メモリまたは、データ処理システム110からのデータの出力先となるあらゆるデバイスまたはデバイスの組み合わせであってもよい。この点に関して、ユーザインタフェースシステム130がプロセッサアクセス可能メモリを内蔵している場合、図6ではユーザインタフェースシステム130とプロセッサアクセス可能メモリシステム140が別々に示されていても、これらのシステムはプロセッサアクセス可能メモリシステム130の一部であってもよい。
本発明は、画像分類、たとえば、人々が写真やビデオを撮影する一般的なイベントの自動認識等を容易にする。目標は、個人的な写真集合(一部はビデオを含んでいてもよい)から代表的なイベントを認識することであり、各イベントは、特定の環境で行われ、そのイベント中に撮影される以下の画像集合によって記録される具体的な人間の活動に対応する。
Ei={Ij:j=1,2,…,n}
式中、Ijは1枚の画像(またはビデオ)である。本発明の好ましい実施形態では、頻繁に発生し、合理的に示差的な視覚的特徴を有する10種類のイベントまたは分類のリストを、C={裏庭での活動、浜辺での活動、野球、誕生会、クリスマス行事、市内観光、ハイキング、ドライブ旅行、スキー、結婚式}と定義する。これら以外のイベントを定義し、含めることもでき、当業者であれば、本発明が上記のイベントに限定されないことがわかるであろう。リストCは、屋外と屋内の両方のイベントを含む。一般に、イベント認識はシーン認識より困難で、複雑であるが、それは、イベント認識にはより高レベルの意味論が関わり(L.−J.リとL.フェイフェイ、“What, where and who classfying events by scene and object recognition” in Proc.IEEE Intl.Conf.on Computer Vision, 2007参照)、そのため、視覚的コンテンツがインスタンスごとに大きく異なる場合があり、分類器の性能を下げる原因となるからである。
本発明の実施形態で解決しようとする分類の問題は、次のように説明することができる。
入力:
視覚的イベントのデータベースは、ある分類器を設計するための教師データDとして入力され、D={Ei,1(Ei)}であり、この式中、Ei={Ti,j,Ii,j:j=1,2,…,|Ei|}は、ある視覚的ベントを構成する画像セットを含む個々の画像フォルダ(群)を指し、|Ei|は、Eiの大きさを指す。また、Ti,j={xi,j,yi,j,ti,j}は、その写真の2次元位置(x,y)と時間tのGPS記録であり、Ii,jは対応する画像である。集合的に、Ti,jのすべての記録がトレースTiを形成する。各画像フォルダに関して、Cの中の視覚的イベントクラス1(Ei)の1つで固有のラベルを付することができ、この場合、C={裏庭での活動、浜辺での活動、野球、誕生会、クリスマス行事、市内観光、ハイキング、ドライブ旅行、スキー、結婚式}である。画像Ii,jのすべてが、所属する群Eiと同じラベルを共有する。教師データセットDには、Cの中の各クラスについて十分なインスタンスが含まれているべきである。
出力:
新しい画像フォルダEi={Tj,j,Ii,j:j=1,2,…,|Ei|}と学習された分類器に与えられるラベル1(Ei)、たとえば1(Ei)=ハイキング
いずれのパターン分類の問題においても、高次元の特徴ベクトルを、事前に決定されたクラスのセットの1つに分類する必要がある。特徴間に冗長性があり、学習サンプルの数が限定されていることから、当初の高次元空間において1つの良好な分類器(最も可能性が高いのは、非線形分類器)を発見するのは困難であることが多い。これに対して、低次元特徴空間の中で多くの弱分類器を発見するほうが容易であり、この場合、発見された部分空間で構築された各分類器は、弱い分類ルールとしての役割を果たす。本発明のある実施形態では、有効な方法として、低次元空間で発見されたこれらの弱分類器を、多クラスブースティングによって組み合わせ、最終的な分類器を作る。ブースティングは当業界において周知であり、同様の他の手順を用いて最終的な分類器を作っても、本発明の範囲から逸脱しない。
図1に、本発明のある実施形態による、時間的に関係のある画像群を分類する方法が示されている。まず、ステップ10で、撮影位置情報を有する、時間的に関係のある画像群を取得する。この画像群(本明細書では画像集合と呼ぶこともある)は、当業界で公知の技術により、時間的および位置的に関係のある写真群にすでに選別されているか、あるいは選別される。さらに、この画像集合には、GPS受信センサを備えるデジタルカメラを使って、ジオタグが付けられていてもよい。あるいは、ジオタグが付された写真を、独立したGPS受信機と(たとえば、Bluetoothリンクを通じて)通信可能なデジタルカメラを使って取得することもできる。あるいはまた、撮影後に写真に手作業で座標タグを付けるか、写真をまとめてGPSロギングデバイスと同期化させる方法もある。特定のイベントに対応するジオタグ付きの写真集合に関して、ステップ20で、はじめにGPS座標とタイムスタンプ情報を抽出し、空間と時間のスパースなトレース(sparse trace)を形成する。このトレースは、撮影位置のシーケンスと考えられる。位置情報を伴う写真が、時間的に関係のある画像群全体についてのトレースを形成するのに十分な量だけあれば、各写真が位置情報に関連付けられていることは必須でない点に注意されたい。
次にステップ30で、トレースの特徴を計算し、トレースの形状または構造を特徴付ける。ステップ40で、このようなトレースの特徴を使って、その集合についての対応するイベントまたは分類を推測する。推測は、撮影位置シーケンスに集合的に関連付けられた情報を、予想される撮影位置シーケンス特徴の複数のセットの各々と比較することによって行われ、各セットは、あるイベントの分類に関連付けられている。
ステップ20−40で位置シーケンストレースのような撮影位置シーケンス情報を使用することに加え、集合を分類するために、その集合の中の画像コンテンツ情報も任意で使用してよく、これがステップ50−70に示されている。特に、ステップ50で画像コンテンツ、すなわち画素情報を個々の写真から抽出してもよく、次のステップ60で、画像コンテンツから視覚的特徴を計算する。ステップ70で、同じイベントの中の個々の写真すべてにより集合的に表される視覚的情報から、イベントまたは分類を推測することができる。ここでも、推測は、時間的に関係のある画像群に集合的に関連付けられる画像コンテンツ情報を、予想される画像コンテンツ特徴の複数のセットの各々と比較することによって行われ、各セットは、あるイベントの分類に関連付けられている。平行する2通りの推測経路があるため、ステップ80では、トレース特徴と視覚的特徴から別々に得られた推測結果を組み合わせることにより、共同的にイベントを推測できる。
最後に、ステップ90で、推測されたイベント情報を使って、大きなデータベースの中で特定のイベントの写真を検索するか、他の用途のために写真集合に注記を付けることができる。
図1Aが示す別の方法では、ステップ85において、トレース特徴と視覚的特徴の組み合わせ、すなわち複合情報から共同的にイベントを推測し、トレース特徴と視覚的特徴から別々に推測する中間のステップが省かれている。
いくつかの例により、本発明の性能が、視覚的情報だけを使用する場合よりどのように優れているかを示すことができる。ある人々のグループがドライブ旅行に出て、ある主要都市を通ったとする。また、彼らはその都市と路上で写真を撮影したとする。視覚的情報だけを使用した場合、視覚的分類器はおそらく、このイベントにおける多数の写真を「市内観光」として正しく分類するかもしれないが、イベント全体としては誤った特徴づけを行う可能性がある。しかしながら、撮影位置シーケンストレースがこれらの写真に関連付けられていれば、写真群全体が、(都市を通ってはいるが)ドライブ旅行として正しく分類される可能性が高くなる。情報を融合した結果、このイベントはドライブ旅行であると最終的に判断される(本発明で、ドライブ旅行のイベントに都市の写真が含まれる可能性があることが学習される点に注意されたい)。
別の例として、ある人々のグループが森にハイキングに行ったとする。裏庭の写真にも木々が含まれている可能性があるため、視覚的分類器は、これを裏庭でのイベントであると誤って判断するかもしれない。しかしながら、ここでも、その写真に撮影位置シーケンストレースが関連付けられていれば、本発明の実施形態が、イベント全体を裏庭のイベントではなくハイキングであると正しく判断する可能性が高くなる。
視覚的特徴しか適用できなかった従来の画像および視覚的イベント分類の問題とは異なり、本発明の実施形態は、(1)GPS特徴と(2)視覚的特徴という2種類の特徴を利用する。特に、GPS特徴は、同じイベントに関係のある画像集合に対して定義されるため、個々の1枚の画像だけでなく、画像集合全体の特徴である。本発明の文脈内では、写真集合は、フォルダとも呼ばれる。
図1に関して述べたスパースなトレースは、各種のイベントを差別化する上で非常に有益となりうる。図2にまとめるように、単純に空間的範囲と移動速度だけによって、イベントを、それぞれ前述のようなラベルに関連付けられるクラスタにまとめることができる。本発明の実施形態は、写真が、当業界で周知の技術により、時間と位置において関係のある写真群に事前に選別されていることを前提としてもよい。市内観光、ハイキング、ドライブ旅行等のイベントは大きな空間的範囲にわたり、これに対して裏庭、浜辺、野球、ピクニック、結婚式のイベントは、空間的に制約されている傾向がある。ドライブ旅行であれば、人々はかなり高速で移動するが、市内観光、ハイキング、裏庭、浜辺、野球、ピクニック、結婚式での移動ははるかに遅い。範囲や速度よりもっと高度な特徴を設計して、トレースの形状や構造を特徴付けることができる。
記録されたGPS情報に基づき、各画像フォルダは、空間−時間トレースで表され、Ti={(xi,j,yij,Ti,j)|,j=1,…,|Ti|}となり、式中、|Ti|はフォルダの大きさ、すなわち画像の数に等しい。空間−時間領域における点のシーケンスは、そのもとになる画像撮影中の撮影者の移動を示すものとなる。このシーケンス単独で、空間−時間の中のその点において撮影された、対応する画像とは無関係に、イベント認識作業のための情報となる。図3と図4は、それぞれ、数回の市内観光イベントとハイキングイベントに関するGPSトレースを示している。これらのトレースは、分類器を指定するための教師データDに使用してもよく、上述の分類問題の「入力」の部分とされる。注目すべき点は、これら2種類のイベントのトレースの形状特徴は相互に大きく異なるが、それと同時に、同じ種類のトレースは同様に見えることである。どちらのイベントも、空間と時間において比較的広い範囲にわたるが、市内観光のトレースのほうがトレースの形状の規則性が高く、これはもとになる都市の街区と街路の構造による。比較すると、ハイキングのトレースは、ジグザグの動きとすることもできるが、よりランダムで任意に見える。言い換えると、同じ種類のイベントに関する異なる移動インスタンスの中に構造的な類似性がある一方で、異なる種類のイベントに対応する移動の間には構造的な相違がある。
上記のような空間−時間トレースを考慮し、本発明の好ましい実施形態では、ステップ50において、次の13種類の特徴がトレースの形状または構造を表すものとして抽出され、それらの異なる重要性は学習によって決定され、一般性を損なうことなく[0.0,1.0]の範囲内とされる。
エントロピー(特徴2つ):時間および空間領域
重心までの距離(特徴1つ)
分散(特徴2つ):時間および空間領域
歪度(特徴2つ):時間および空間領域
尖度(特徴2つ):時間と空間領域
空間的範囲(特徴1つ)と時区間(特徴1つ)
トレース長さ(特徴1つ)と平均速度(特徴1つ)
たとえば、以下に、上記の空間的範囲と空間的分散を定義する。(1)トレースTiの空間的範囲SR(Ti)は、視覚的イベントの活動の空間的範囲を説明する:
SR(T)=(max{xj|xj∈T}−min{xj|xj∈T})×(max{yj|yj∈T}−min{yj|yj∈T}) (1)
(2)トレースの空間分散SV(Ti)は、活動の空間的分散を説明する:
Figure 2011517818
他の種類の特徴は低レベルの視覚的特徴であり、これらはステップ60において画像から計算される。視覚的ボキャブラリは、たとえばシーン認識のための視覚認識システムを構築するための有効な方法であることがわかっている(S.ラゼブニック、C.シュミット、J.ポンス、“Beyond bags of features: spatial pyramid matching for recognizing natural scene categories”in Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2006参照)。画像は、固定されたグリッドによって分けられ、画像パッチの順序付けされないセットとして表される。このような画像パッチについての適当な記述文が計算され、値域にまとめられて、「視覚的ボキャブラリ」が形成される。本発明の実施形態において、これと同じ方法を採用し、各画像グリッドを特徴付けるための色とテクスチャの両方の特徴を考慮するように拡張してもよい。
本発明のある実施形態において、色の特徴を抽出するために、1つの画像グリッドをさらに2×2の等しい大きさのサブグリッドに分ける。次に、各サブグリッドについて、R,G,Bの平均値を抽出して、4×3=12の特徴ベクトルを形成し、これが4つのサブグリッドの色情報を特徴付ける。テクスチャ特徴を抽出するために、各サブグリッドにおいて、方向に関する8つの値域を有する2×2のアレイからなるヒストグラムを計算する。したがって、4×8=32次元のSIFT記述子を用いて、各画像グリッド内の構造を特徴付けるが、これはラゼブニックの考え方と似ている。本発明のある実施形態において、画像が200k画素より大きければ、これをまず200k画素の大きさに変える。次に、16×16の画像グリッドサイズを設定し、重複するサンプリング間隔を8×8とする。一般に、1つの画像からそのようなグリッドが117できる。
画像グリッドからすべての未加工の画像特徴を抽出した後に、本発明の実施形態において、教師データベースの中のすべての画像グリッドを、k−meansクラスタリングを通じてクラスタリングすることにより、別の色およびテクスチャのボキャブラリを構築する。どちらのボキャブラリも、500の大きさに設定される。あるイベントの中の全グリッドを累積させる(画像集合)ことによって、各イベントについて2つの正規化されたヒストグラム、すなわち、それぞれ色およびテクスチャのボキャブラリの単語分布に対応するhcとhtが得られる。hcとhtを連結すると、その結果として、正規化された単語ヒストグラム、
Figure 2011517818
となる。ヒストグラムの中の各値域は、対応する単語の発生頻度を示す。したがって、特徴ベクトルfの応答は、以下のようになる。
Figure 2011517818
式中、0<θi<1は量子化閾値である。簡略化された指数関数を考えると、fiは、そのイベント中にi番目の単語Ωが十分頻繁に発生する場合には正の応答を示し、それ以外の場合の応答はnullとなる。視覚的ボキャブラリにはΩcとΩtの2種類があり、Ωcは色のプリミティブ、Ωtはテクスチャのプリミティブである。完全なボキャブラリをΩ=Ωc∪Ωtとして、色およびテスクチャの両方の情報を表すように、視覚的特長を計算することができる。
低レベルの視覚的特徴のほかに、オブジェクトおよびシーン検出から得られる意味論的な視覚的特徴も考えることができる。各画像につき、シーンカテゴリのセット、
S={屋外、人工、浜辺、夕日、山、…}
と、オブジェクトカテゴリのセット、
O={草、青い空、砂、雪、…}
を定義することができる。
上記のようなシーンとオブジェクトに関するバイナリSVM分類器のセットを構築できることはよく知られており、たとえばラゼビニックを参照されたい。決定論的判断を下すのではなく、本発明の好ましい実施形態では、ある画像がある特定のオブジェクトかシーンを含んでいるか否かを示すために、[0,1]からの範囲の確率論的スコアを保持する。各画像には、複数のシーンまたはオブジェクトラベルが付けられてもよいことに注意されたい。したがって、各画像Iに関して、結果は各数値が[0,1]の範囲のk次元の実数値特徴ベクトルとなり、kはシーンとオブジェクトのカテゴリの総和に等しく、各数値はそれぞれのSVM分類器からの検出スコアに対応する。
視覚的特徴が計算されると、指数損失を用いた段階的加法モデリング(SAMME)と呼ばれる多クラスAdaBoost法を使って、教師データセットDの中の画像を用いる視覚的分類器と、教師セットDの中の撮影位置シーケンストレースを用いる撮影位置シーケンストレース分類器を構築することができる。SAMMEの詳細は、(J.ズー(Zhu)、S.ロセット、H.ゾウ(Zou)、T.ヘイスティ“Multi−class Adaboost”,Technical Report 2005,Stanford University”)に記載されている。SAMMEは、Kバイナリ分類器ではなく、1つのKクラス分類器を構築することによって、Kクラス問題を直接取り扱う。SAMMEを用いる解決法はベイズの分類法則と一致しており、したがって、誤分類のエラーを最小限にするのに最適である。
人気のある融合方式(たとえば、ブースティング)は、多くの弱分類器を線形に組み合わせて、強分類器を作っている。最終的な決定は、
Figure 2011517818
となる。式中、wは最適化が必要な重み、h(D)∈{0,1}は、弱分類器h(D)からの応答を示す。
トレースの特徴、低レベルの視覚的特徴および意味論的な視覚的特徴の各々に関する個々の分類器が構築されたところで、本発明は、平行して行われるこれら分類の結果を、情報融合によって組み合わせる。ナイーブな融合方式の場合、たとえば、8つのイベントクラスに関して、以下を計算することができる。
GPS出力:hg(X)=[4.2 0.0 0.5 4.9 0.0 0.0 0.0 0.7]
視覚的出力:hv(X)=[1.2 0.7 4.1 1.7 3.1 0.0 2.0 0.0]
−出力の総和:h(X)=hg(X)+hv(X) (5)
h(X)=[5.4 0.7 5.6 6.6 3.1 0.0 2.0 0.7]
この場合、予想されるラベル=arg max h(X)=4となる。
本発明の好ましい実施形態において、各クラスの信頼性は、ベイジアンネットワークを使った確率論的融合と同種の、確率に基づく融合を通じて得られ、すなわち、
h(X)=Wg×hg(X)+Wv×hv(X) (6)
となる。
重みまたは信頼度は、対応する分類モード(トレース、視覚、意味論)の分類表に基づいて計算することができる。分類表は当業界においてよく知られており、これは、各クラスの(各行の)サンプルが、考えられるクラスの(各列の)各々にどのように分類されるかを表している。したがって、良い分類器が有する分類表では、ゼロ以外の数値が表の対角線に沿って集中しているはずである。図5に示される、あるモードの8クラス分類問題の分類表の例を用いると、このモードの第一のクラスの重みは、次のように計算される。
Wg(1)=5/(5+2+4+0+1+2+0+1)=1/3 (7)
式中、分母は第一列の総和である。簡単に言えば、このモードのクラス1に分類された15のサンプルのうち、実際にクラス1に属するのは5つであるため、信頼度は1/3となる。
本発明は、特定の好ましい実施形態を特に参照して詳細に説明したが、本発明の精神と範囲の中で変形版や改変形を実現できることが理解されるであろう。
10 ステップ:ジオタグ付きの写真集合を取得する。
20 ステップ:ジオタグ付きの写真からのGPS座標とそれらのタイムスタンプ情報を抽出して、トレースを作成する。
30 ステップ:トレースからトレース特徴を計算する。
40 ステップ:トレース特徴から、対応するイベントを推測する。
50 ステップ:個々の写真の画像コンテンツを抽出する。
60 ステップ:画像コンテンツから視覚的特徴を計算する。
70 ステップ:写真集合の視覚的特徴から、対応するイベントを推測する。
80 ステップ:トレース特徴と視覚的特徴から別々に推測された結果を組み合わせることにより、合同でイベントを推測する。
85 ステップ:トレース特徴と視覚的特徴から、合同でイベントを推測する。
90 ステップ:推測されたイベントに関する写真集合を検索/整理する。

Claims (20)

  1. 少なくとも一部がデータ処理システムにより実行され、時間的に関係のある画像群の分類を容易にする方法であって、
    前記時間的に関係のある画像群から、撮影位置シーケンスを特定するステップと、
    前記撮影位置シーケンスに集合的に関連付けられている撮影位置シーケンス情報を、予め決められた撮影位置シーケンスの特徴の複数のセットの各々であって、予め決められた分類に関連付けられているセットの各々と比較するステップと、
    少なくとも前記比較ステップからの結果に基づいて、前記時間的に関係のある画像群に関連付けられる、特定された分類を特定するステップと、
    前記特定された分類をプロセッサアクセス可能メモリシステムの中に保存するステップと、
    を含むことを特徴とする方法。
  2. 請求項1に記載の方法であって、
    前記撮影位置シーケンスは、少なくとも前記群の中の画像の少なくともいくつかに関連付けられているGPS情報に基づいて特定されることを特徴とする方法。
  3. 請求項1に記載の方法であって、
    前記時間的に関係のある画像群に集合的に関連付けられている画像コンテンツ情報を、予め決められた画像コンテンツの特徴の複数のセットの各々であって、予め決められた分類に関連付けられているセットの各々と比較するステップをさらに含み、
    前記特定するステップは、少なくとも前記2つの比較ステップからの結果に基づいて、前記特定された分類を特定することを特徴とする方法。
  4. 請求項1に記載の方法であって、
    前記特定された分類は、前記予め決められた分類の1つから特定されることを特徴とする方法。
  5. 請求項1に記載の方法であって、
    撮影位置シーケンス情報は、前記撮影位置シーケンスのトレースを含むことを特徴とする方法。
  6. 請求項5に記載の方法であって、
    前記トレースには、空間および時間領域が含まれることを特徴とする方法。
  7. 請求項5に記載の方法であって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴は前記トレースによって表される空間的範囲か、前記トレースによって表される移動速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とする方法。
  8. 請求項5に記載の方法であって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴はエントロピー、重心までの距離、分散、歪度、尖度、空間範囲、時区画、長さまたは速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とする方法。
  9. 請求項1に記載の方法であって、
    前記予め決められた分類には、ハイキングと市内観光が含まれることを特徴とする方法。
  10. 請求項9に記載の方法であって、
    前記予め決められた分類には、結婚式、野球、裏庭での活動、浜辺での活動、ドライブ旅行、ピクニック、クリスマス行事、誕生会がさらに含まれることを特徴とする方法。
  11. データ処理システムに、時間的に関係のある画像群の分類を容易にするための方法を実行させるように構成された命令を記憶するプロセッサアクセス可能メモリシステムであって、前記命令は、
    前記時間的に関係のある画像群から、撮影位置シーケンスを特定させる命令と、
    前記撮影位置シーケンスに集合的に関連付けられている撮影位置シーケンス情報を、予め決められた撮影位置シーケンスの特徴の複数のセットの各々であって、予め決められた分類に関連付けられているセットの各々と比較させる命令と、
    少なくとも前記比較ステップからの結果に基づいて、前記時間的に関係のある画像群に関連付けられる、特定された分類を特定させるステップと、
    前記特定された分類をプロセッサアクセス可能メモリシステムの中に保存させるステップと、
    を含むことを特徴とするプロセッサアクセス可能メモリシステム。
  12. 請求項11に記載のプロセッサアクセス可能メモリシステムであって、
    前記撮影位置シーケンス情報には、撮影位置シーケンスのトレースが含まれることを特徴とするプロセッサアクセス可能メモリシステム。
  13. 請求項12に記載のプロセッサアクセス可能メモリシステムであって、
    前記トレースには、空間および時間領域が含まれることを特徴とするプロセッサアクセス可能メモリシステム。
  14. 請求項12に記載のプロセッサアクセス可能メモリシステムであって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴は前記トレースによって表される空間的範囲か、前記トレースによって表される移動速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とするプロセッサアクセス可能メモリシステム。
  15. 請求項12に記載の方法であって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴はエントロピー、重心までの距離、分散、歪度、尖度、空間範囲、時区画、長さまたは速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とするプロセッサアクセス可能メモリシステム。
  16. データ処理システムと、
    前記データ処理システムに通信可能に接続され、前記データ処理システムに、時間的に関係のある画像群の分類を容易にする方法を実行させるように構成された命令を記憶するメモリシステムと、
    を含むシステムであって、前記命令は、
    前記時間的に関係のある画像群から、撮影位置シーケンスを特定させる命令と、
    前記撮影位置シーケンスに集合的に関連付けられている撮影位置シーケンス情報を、予め決められた撮影位置シーケンスの特徴の複数のセットの各々であって、予め決められた分類に関連付けられているセットの各々と比較させる命令と、
    少なくとも前記比較ステップからの結果に基づいて、前記時間的に関係のある画像群に関連付けられる、特定された分類を特定させるステップと、
    前記特定された分類をプロセッサアクセス可能メモリシステムの中に保存させるステップと、
    を含むことを特徴とするシステム。
  17. 請求項16に記載のメモリシステムであって、
    前記撮影位置シーケンス情報には、前記撮影位置シーケンスのトレースが含まれることを特徴とするメモリシステム。
  18. 請求項17に記載のメモリシステムであって、
    前記トレースには、空間および時間領域が含まれることを特徴とするメモリシステム。
  19. 請求項17に記載のメモリシステムであって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴は前記トレースによって表される空間的範囲か、前記トレースによって表される移動速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とするメモリシステム。
  20. 請求項17に記載の方法であって、
    前記トレースの特徴を判断するステップをさらに含み、前記特徴はエントロピー、重心までの距離、分散、歪度、尖度、空間範囲、時区画、長さまたは速度に関係し、前記比較ステップには、前記特徴を、前記予め決められた撮影位置シーケンスの特徴のセットのうちの少なくとも1つにおいて表される、対応する数値または数値範囲と比較するステップを含むことを特徴とするメモリシステム。
JP2011504015A 2008-04-14 2009-04-10 撮影位置シーケンス情報を用いた画像分類 Active JP5461523B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/102,395 2008-04-14
US12/102,395 US8055081B2 (en) 2008-04-14 2008-04-14 Image classification using capture-location-sequence information
PCT/US2009/002270 WO2009131629A1 (en) 2008-04-14 2009-04-10 Image classification using capture-location-sequence information

Publications (3)

Publication Number Publication Date
JP2011517818A true JP2011517818A (ja) 2011-06-16
JP2011517818A5 JP2011517818A5 (ja) 2012-05-24
JP5461523B2 JP5461523B2 (ja) 2014-04-02

Family

ID=40983510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011504015A Active JP5461523B2 (ja) 2008-04-14 2009-04-10 撮影位置シーケンス情報を用いた画像分類

Country Status (5)

Country Link
US (1) US8055081B2 (ja)
EP (1) EP2266058B1 (ja)
JP (1) JP5461523B2 (ja)
CN (1) CN102016839A (ja)
WO (1) WO2009131629A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003630A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2013025791A (ja) * 2011-07-19 2013-02-04 Fuji Xerox Co Ltd ジオタグ付き収集写真の分類方法、システムおよびプログラム
JP2013152550A (ja) * 2012-01-24 2013-08-08 Fujitsu Ltd 写真系列の類似度算出装置、方法、及びプログラム
JP2015512075A (ja) * 2012-01-23 2015-04-23 パーセプティメッド インコーポレイテッドPerceptimed, Inc. 自動化された医薬品錠剤の識別
JPWO2021171652A1 (ja) * 2020-02-27 2021-09-02

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092199A (ja) * 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US8626699B2 (en) * 2009-09-16 2014-01-07 Microsoft Corporation Construction of photo trip patterns based on geographical information
CN102483763B (zh) * 2009-11-04 2013-09-25 松下电器产业株式会社 信息分类装置、信息分类方法及其程序
US8233711B2 (en) * 2009-11-18 2012-07-31 Nec Laboratories America, Inc. Locality-constrained linear coding systems and methods for image classification
US9465993B2 (en) * 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
US20110225151A1 (en) * 2010-03-15 2011-09-15 Srinivas Annambhotla Methods, devices, and computer program products for classifying digital media files based on associated geographical identification metadata
CN101887412A (zh) * 2010-06-22 2010-11-17 华为终端有限公司 文件生成方法及文件生成装置
US9058342B2 (en) * 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
JP5277230B2 (ja) * 2010-11-11 2013-08-28 株式会社バッファロー タグ情報管理装置、タグ情報管理システム、タグ情報管理プログラム、タグ情報管理方法
JP5202605B2 (ja) * 2010-11-11 2013-06-05 株式会社バッファロー コンテンツデータ管理装置、コンテンツデータ管理システム、コンテンツデータ管理プログラム、コンテンツデータ管理方法
US9251173B2 (en) 2010-12-08 2016-02-02 Microsoft Technology Licensing, Llc Place-based image organization
US9037600B1 (en) 2011-01-28 2015-05-19 Yahoo! Inc. Any-image labeling engine
US9218364B1 (en) * 2011-01-28 2015-12-22 Yahoo! Inc. Monitoring an any-image labeling engine
KR101102896B1 (ko) * 2011-03-04 2012-01-09 (주)올라웍스 복수의 사용자가 동시에 콜렉션을 수행할 수 있도록 지원하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
US9298982B2 (en) * 2011-07-26 2016-03-29 Xerox Corporation System and method for computing the visual profile of a place
US9256620B2 (en) * 2011-12-20 2016-02-09 Amazon Technologies, Inc. Techniques for grouping images
US9230187B2 (en) * 2012-03-15 2016-01-05 Qualcomm Incorporated System and method for robust estimation of color dependent measurements
US9633272B2 (en) 2013-02-15 2017-04-25 Yahoo! Inc. Real time object scanning using a mobile phone and cloud-based visual search engine
JP6323465B2 (ja) * 2014-01-15 2018-05-16 富士通株式会社 アルバム作成プログラム、アルバム作成方法およびアルバム作成装置
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
US10216765B2 (en) * 2014-10-28 2019-02-26 Here Global B.V. Image based routing and confirmation
US11301685B2 (en) * 2015-04-02 2022-04-12 Sportsmedia Technology Corporation Automatic determination and monitoring of vehicles on a racetrack with corresponding imagery data for broadcast
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
CN105354252A (zh) * 2015-10-19 2016-02-24 联想(北京)有限公司 一种信息处理方法和装置
US9818032B2 (en) * 2015-10-28 2017-11-14 Intel Corporation Automatic video summarization
US10546406B2 (en) * 2016-05-09 2020-01-28 Activision Publishing, Inc. User generated character animation
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US10909368B2 (en) * 2018-01-23 2021-02-02 X Development Llc Crop type classification in images
CN111027644B (zh) * 2019-12-26 2023-12-26 湖南大学 出行模式分类方法、装置、计算机设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174060A (ja) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd 画像分類装置ならびに画像分類方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6819783B2 (en) * 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
JP4213447B2 (ja) 2002-09-27 2009-01-21 富士フイルム株式会社 アルバム作成方法および装置並びにプログラム
US7298895B2 (en) 2003-04-15 2007-11-20 Eastman Kodak Company Method for automatically classifying images into events
US7680340B2 (en) * 2003-11-13 2010-03-16 Eastman Kodak Company Method of using temporal context for image classification
US7643686B2 (en) 2004-11-17 2010-01-05 Eastman Kodak Company Multi-tiered image clustering by event
US7580952B2 (en) * 2005-02-28 2009-08-25 Microsoft Corporation Automatic digital image grouping using criteria based on image metadata and spatial information
JP2006295890A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2006293985A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
JP2006293986A (ja) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd アルバム作成装置、アルバム作成方法、及びプログラム
CN101253537B (zh) * 2005-05-12 2012-10-10 富士胶片株式会社 影集制作装置、影集制作方法及程序
KR100735553B1 (ko) 2005-10-10 2007-07-04 삼성전자주식회사 사진 분류 방법 및 장치
US7860320B2 (en) * 2006-06-26 2010-12-28 Eastman Kodak Company Classifying image regions based on picture location
US7813560B2 (en) * 2007-02-28 2010-10-12 Eastman Kodak Company Classifying complete and incomplete date-time information
US8391617B2 (en) * 2008-11-04 2013-03-05 Eastman Kodak Company Event recognition using image and location information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174060A (ja) * 2003-12-12 2005-06-30 Matsushita Electric Ind Co Ltd 画像分類装置ならびに画像分類方法およびプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003630A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2013025791A (ja) * 2011-07-19 2013-02-04 Fuji Xerox Co Ltd ジオタグ付き収集写真の分類方法、システムおよびプログラム
JP2015512075A (ja) * 2012-01-23 2015-04-23 パーセプティメッド インコーポレイテッドPerceptimed, Inc. 自動化された医薬品錠剤の識別
JP2017199388A (ja) * 2012-01-23 2017-11-02 パーセプティメッド インコーポレイテッドPerceptimed, Inc. 自動化された医薬品錠剤の識別
US9842257B2 (en) 2012-01-23 2017-12-12 Perceptimed, Inc. Automated pharmaceutical pill identification
US10229321B2 (en) 2012-01-23 2019-03-12 Perceptimed, Inc. Automated pharmaceutical pill identification
US10467477B2 (en) 2012-01-23 2019-11-05 Perceptimed, Inc. Automated pharmaceutical pill identification
JP2013152550A (ja) * 2012-01-24 2013-08-08 Fujitsu Ltd 写真系列の類似度算出装置、方法、及びプログラム
JPWO2021171652A1 (ja) * 2020-02-27 2021-09-02
WO2021171652A1 (ja) * 2020-02-27 2021-09-02 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
JP7291907B2 (ja) 2020-02-27 2023-06-16 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US8055081B2 (en) 2011-11-08
CN102016839A (zh) 2011-04-13
EP2266058B1 (en) 2012-07-11
WO2009131629A1 (en) 2009-10-29
EP2266058A1 (en) 2010-12-29
JP5461523B2 (ja) 2014-04-02
US20090257663A1 (en) 2009-10-15

Similar Documents

Publication Publication Date Title
JP5461523B2 (ja) 撮影位置シーケンス情報を用いた画像分類
JP6431934B2 (ja) モバイル・コンピューティング・デバイスに格納された写真を編成するためのシステム、方法及び装置
US7711145B2 (en) Finding images with multiple people or objects
US8150098B2 (en) Grouping images by location
JP5647523B2 (ja) 画像と位置による画像環境の認識
US8908976B2 (en) Image information processing apparatus
Yang et al. Semantic home photo categorization
Joshi et al. Inferring generic activities and events from image content and bags of geo-tags
JP5018614B2 (ja) 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム
Chen et al. Discriminative BoW framework for mobile landmark recognition
Ye et al. Video based mobile location search with large set of SIFT points in cloud
Joshi et al. Inferring photographic location using geotagged web images
Davis et al. Using context and similarity for face and location identification
JP5289211B2 (ja) 画像検索システム、画像検索プログラムおよびサーバ装置
Yadav et al. DroneAttention: Sparse weighted temporal attention for drone-camera based activity recognition
Kim et al. Classification and indexing scheme of large-scale image repository for spatio-temporal landmark recognition
Jin Kim et al. Learned contextual feature reweighting for image geo-localization
Guo et al. Event recognition in personal photo collections using hierarchical model and multiple features
Golge et al. FAME: face association through model evolution
Lee et al. A scalable service for photo annotation, sharing, and search
JP6109118B2 (ja) 画像処理装置および方法、情報処理装置および方法、並びにプログラム
Sinha et al. Semantics in digital photos: a contenxtual analysis
Ge et al. A scene recognition algorithm based on covariance descriptor
Lin Scalable deep feature learning for person re-identification
Shivakumara et al. A Knowledge Enforcement Network-Based Approach for Classifying a Photographer’s Images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120402

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Ref document number: 5461523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250