JP5612310B2 - 顔認識のためのユーザーインターフェース - Google Patents

顔認識のためのユーザーインターフェース Download PDF

Info

Publication number
JP5612310B2
JP5612310B2 JP2009537150A JP2009537150A JP5612310B2 JP 5612310 B2 JP5612310 B2 JP 5612310B2 JP 2009537150 A JP2009537150 A JP 2009537150A JP 2009537150 A JP2009537150 A JP 2009537150A JP 5612310 B2 JP5612310 B2 JP 5612310B2
Authority
JP
Japan
Prior art keywords
image
person
face
images
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009537150A
Other languages
English (en)
Other versions
JP2010509695A (ja
JP2010509695A5 (ja
Inventor
チャールズ ギャラガー,アンドリュー
チャールズ ギャラガー,アンドリュー
シー. ルイ,アレクサンダー
シー. ルイ,アレクサンダー
ディー. セロサレッティ,キャスリーン
ディー. セロサレッティ,キャスリーン
エル. ヒビノ,ステイシー
エル. ヒビノ,ステイシー
ダス,マディラクシ
オー. ステュブラー,ピーター
オー. ステュブラー,ピーター
Original Assignee
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテレクチュアル ベンチャーズ ファンド 83 エルエルシー, インテレクチュアル ベンチャーズ ファンド 83 エルエルシー filed Critical インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Publication of JP2010509695A publication Critical patent/JP2010509695A/ja
Publication of JP2010509695A5 publication Critical patent/JP2010509695A5/ja
Application granted granted Critical
Publication of JP5612310B2 publication Critical patent/JP5612310B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Description

本発明の分野は、デジタル画像及びビデオの収集物を管理、ラベル付け、及び探索することに関する。
デジタル写真技術の到来に伴って、消費者は、デジタル画像及びビデオの大量の収集物を蓄えつつある。1撮影者当たりのデジタルカメラによる画像キャプチャの平均数は、年々さらに増えつつある。結果として、画像及びビデオの整理及び検索は、典型的な消費者にとって既に問題である。目下のところ、典型的な消費者のデジタル画像収集歴は数年に過ぎない。平均的なデジタル画像及びビデオの収集歴が長くなるのに伴って、整理及び検索の問題は増大し続けることになる。
ユーザーは、該当する特定の人物を含有する画像及びビデオを見つけ出すことを望む。ユーザーは、該当人物を含有する画像及びビデオを見付けるために、手動検索を実施することができる。しかし、これは緩慢な、骨の折れるプロセスである。後から検索ができるように画像内の人々を指し示すラベルをユーザーが画像に付けるのを可能にする商業的ソフトウェア(例えばAdobe Systems Inc.によるAdobe Album)があるものの、最初のラベル付けプロセスは、依然として極めて退屈なものであり、また多大な時間がかかる。
顔認識ソフトウェアは、グラウンド・トゥルースラベル付け(ground-truth labeled)画像集合(set of image)(すなわち、対応する人物同一性を有する画像集合)の存在を想定する。ほとんどの消費者画像収集物は、同様のグラウンド・トゥルース集合を有していない。加えて、顔認識は一般に、トレーニング段階を必要とし、この段階で、ユーザーはその収集物から多くの画像にラベルを付けなければならない。このようなラベル付け段階は、退屈なものであり、また多大な時間がかかる。多くのユーザーは、画像収集物を準備するために自分の側では労力をほとんど又は全くかけずに、画像内の人物たちの同一性に基づいて、画像収集物全体にわたる何らかの探索ができることを望むようになる。
人々をセキュリティ又はその他の目的のために認識しようと試みる多くの画像処理パッケージが存在する。いくつかの例としては、Cognitec Systems GmbHのFaceVACS顔認識ソフトウェア、及びImagis Technologies Inc.及びIdentix Inc.のFacial Recognition SDKがある。これらのパッケージは主に、人物が均一の照明、正面のポーズ、及び無表情でカメラに向き合うセキュリティ・タイプ用途向きである。これらの方法は個人消費者の画像収集物とともに用いるには、ワークフローが不親切であるため、適していない。
本発明の目的は、画像収集物を探索し、収集物内の固有のオブジェクト又は顔を識別することである。
本発明は、画像収集物を整理する方法であって、画像収集物内の顔を検出すること、該検出された顔から特徴を抽出すること、該抽出された特徴を分析することにより、固有顔集合を決定すること、ここで該固有顔集合内のそれぞれの顔は、該集合内の他の顔とは異なる人物に由来するものと考えられる、そして該固有の顔をユーザーに表示することを含んで成る画像収集物を整理する方法によって達成される。
図面に示された態様を参照しながら、本発明の主題を説明する。
図1は、本発明を実施することができるカメラ付き電話機に基づく撮像システムを示すブロックダイヤグラムである。 図2は、図1のシステムを使用する、デジタル画像収集物内の画像を探索してラベル付けするための本発明の態様を示すフローチャートである。 図3は、検出される顔を含む収集物内の代表的な画像集合を示す図である。 図4は、図3の収集物から導き出された代表的な固有アイコン集合を示す図である。 図5は、ラベル付けされた画像と固有のアイコンとの収集物を示す図である。 図6は、デジタル画像収集物の、ユーザー開始型のクエリー(アイコン又はラベル)によって見いだされる画像の部分集合を示す図である。 図7は、図2の特徴抽出子106を示すフローチャートである。 図8は、顔のジオメトリック特性を記述する特徴の視覚的表現を示す図である。 図9は、アイコン424及び426が同じ顔である複数の顔のアイコンを示す図である。
下記において、本発明のいくつかの態様をソフトウェア・プログラムとして説明する。このような方法の等価のものを、本発明の範囲内でハードウェア又はソフトウェアとして構成することもできることは、当業者には容易に明らかであろう。
画像操作アルゴリズム及びシステムは良く知られているので、本説明は具体的には、本発明に基づく方法の一部を形成するか、又はこの方法とより直接的に協働するアルゴリズム及びシステムを対象とすることになる。このようなアルゴリズム及びシステムの他の観点、並びにここで具体的には図示又は記載されていない、これらと関与して画像信号を生成し、その他の形式で処理するためのハードウェア又はソフトウェアは、当業者に知られているこのようなシステム、アルゴリズム、成分、及び要素から選択することができる。下記明細書における記載内容を考えると、その全てのソフトウェアの実施は従来通りであり、当業者の通常の技術範囲内にある。
図1は、本発明を実施することができる、デジタルカメラ付き電話機301に基づく撮像システムのブロックダイヤグラムである。デジタルカメラ付き電話機301は、デジタルカメラの1つのタイプである。好ましくは、デジタルカメラ付き電話機301は、画像をキャプチャリングして見直すときにユーザーが容易に手で持つのに十分に小さな、携帯可能な電池動作型デバイスである。デジタルカメラ付き電話機301は、例えば内部フラッシュEPROMメモリー、又は取り外し可能なメモリーカードであることが可能な画像データ/メモリー330を使用して記憶されるデジタル画像を生成する。画像データ/メモリー330を提供するために、代わりに他のタイプのデジタル画像記憶媒体、例えば磁気ハードドライブ、磁気テープ、又は光デスクを使用することもできる。
デジタルカメラ付き電話機301は、シーン(図示せず)から相補型金属酸化膜半導体(CMOS)画像センサー311の画像センサーアレイ314上に光を集束するレンズ305を含む。画像センサーアレイ314は、よく知られたBayerカラーフィルター・パターンを使用してカラー画像情報を提供することができる。画像センサーアレイ314は、タイミング発生器312によって制御され、タイミング発生器312はまた、周囲の照明が暗いときにシーンを照らすために、フラッシュ303を制御する。画像センサーアレイ314は、例えば1280列×960行の画素を有することができる。
いくつかの態様の場合、デジタルカメラ付き電話機301は、低解像度ビデオ画像フレームを形成するために、画像センサーアレイ314の複数の画素を合計する(例えば画像センサーアレイ314の各4列×4行領域内部に同じ色の画素を合計する)ことによって、ビデオクリップを記憶することもできる。ビデオ画像フレームは、例えば1秒当たり24フレームの読み出し速度を用いて、規則的なインターバルで、画像センサーアレイ314から読み取られる。
画像センサーアレイ314からのアナログ出力信号は増幅され、そしてCMOS画像センサー311上のアナログ−デジタル(A/D)変換器回路316によって、デジタルデータに変換される。デジタルデータは、DRAMバッファメモリー318内に記憶され、そして続いて、フラッシュEPROMメモリーであってよいファームウェア・メモリー328内に記憶されたファームウェアによって制御されるデジタルプロセッサ320によって処理される。デジタルプロセッサ320は、デジタルカメラ付き電話機301及びデジタルプロセッサ320が低電力状態にある時にもデータ及び時間を保持するリアルタイム・クロック324を含む。
処理されたデジタル画像ファイルは、画像/データメモリー330内に記憶される。画像/データメモリー330は、ユーザーの個人情報、例えばアドレス帳、連絡先、及びカレンダーなどを記憶するために使用することもできる。画像/データメモリーは、他のタイプのデータ、例えば電話番号、しなければならないことのリストなどを記憶することもできる。
静止画像モードの場合、デジタルプロセッサ320は、レンダリングされたsRGB画像データを生成するために、カラー補間、及びこれに続いてカラー及びトーンの補正を行う。デジタルプロセッサ320は、ユーザーによって選択された種々様々な画像サイズを提供することもできる。レンダリングされたsRGB画像データは次いでJPEG圧縮され、そして画像/データメモリー330内にJPEG画像ファイルとして記憶される。JPEGファイルは、前述のいわゆる「Exif」画像フォーマットを使用する。このフォーマットは、種々のTIFFタグを使用して特定の画像メタデータを記憶するExifアプリケーション・セグメントを含む。例えば、ピクチャがキャプチャリングされた日付及び時刻、レンズのf/ナンバー及びその他のカメラ設定値を記憶し、そして画像キャプションを記憶するために、別個のTIFFを使用することができる。具体的には、ラベルを記憶するためにImageDescriptionタグを使用することができる。リアルタイム・クロック324は、日付/時刻値を提供し、この値は、各Exif画像ファイル内に日付/時刻メタデータとして記憶される。
場所決定子325が、画像キャプチャと関連する地理的場所を提供する。場所は好ましくは、緯度及び経度の単位で記憶される。なお、場所決定子325は、画像キャプチャ時間とは僅かに異なる時間における地理的場所を決定することがある。その場合、場所決定子325は、画像と関連付けられた地理的場所として、最も近い時間から地理的場所を使用することができる。或いは、場所決定子325は、画像キャプチャと関連する地理的場所を決定するために、画像キャプチャの前及び/又は後の時間における複数の地理的場所間を補間することもできる。場所決定子325が地理的場所を決定することは常に可能というわけではないので、補間が必要とされることがある。例えば、GPS受信器は、屋内にある時に信号を検出し損なうことがしばしばある。その場合、特定の画像キャプチャと関連する地理的場所を推定するために、最後に獲得に成功した地理的場所(すなわち建物に入る前)を、場所決定子325によって使用することができる。場所決定子325は、数多くの画像場所決定法のうちのいずれかを利用することができる。例えば、地理的場所は、よく知られた全地球測位システム衛星(GPS)からの通信を受信することによって決定することができる。
デジタルプロセッサ320はまた、低解像度「サムネイル」サイズ画像を形成する。この画像は、同一譲受人による米国特許第5,164,831号明細書(Kuchta他)に記載されているように形成することができる。この開示内容を参考のため本明細書中に引用する。サムネイル画像は、RAMメモリー322内に記憶し、カラーディスプレイ332に供給することができる。カラーディスプレイは例えば、アクティブ・マトリックスLCD又は有機発光ダイオード(OLED)であってよい。画像がキャプチャされた後、これらは、サムネイル画像データを使用することにより、カラーLCD画像ディスプレイ332上で素早く見直すことができる。
カラーディスプレイ332上に表示されたグラフィカル・ユーザー・インターフェイスは、ユーザーコントロール334によって制御される。ユーザーコントロール334は、電話番号をダイアルするための専用のプッシュボタン(例えば電話機キーパッド)、モード(例えば「電話」モード、「カメラ」モード)を設定するための制御装置、4方向制御手段(上、下、左、右)、及びプッシュボタン中央「OK」スイッチを含むジョイスティック・コントローラ、などを含むことができる。
デジタルプロセッサ320に接続された音声エンコーダ・デコーダ(コーデック)340は、マイクロフォン342から音声信号を受け取り、そしてスピーカー344に音声信号を提供する。これらの成分は、電話会話のためと、ビデオシーケンス又は静止画像と一緒に音声トラックを記録して再生するためとの両方の目的で使用することができる。スピーカー344は、電話着呼をユーザーに知らせるために使用することもできる。このことは、ファームウェア・メモリー328内に記憶された標準着信音を使用して、又は携帯電話ネットワーク358からダウンロードされ、そして画像/データメモリー330内に記憶されたカスタム着信音を使用することにより行うことができる。加えて、電話着呼のサイレント(例えば非可聴)通知を提供するために、振動デバイス(図示せず)を使用することができる。
汎用制御コンピュータ40に接続されたドック/充電器364にデジタルカメラ付き電話機301を接続するために、ドック・インターフェイス362を使用することができ、ドック・インターフェイス362は汎用制御コンピュータ40に接続される。ドック・インターフェイス362は例えば、周知のUSBインターフェイス仕様に適合してよい。或いは、デジタルカメラ301と汎用制御コンピュータ40との間のインターフェイスは、無線インターフェイス、例えば周知のBluetooth(登録商標)無線インターフェイス又は周知の802.11b無線インターフェイスであることが可能である。ドック・インターフェイス362は、画像/データメモリー330から汎用制御コンピュータ40へ画像をダウンロードするために使用することができる。ドック・インターフェイス362は、汎用制御コンピュータ40からデジタルカメラ付き電話機301内の画像/データメモリーへ、カレンダー情報を転送するために使用することもできる。ドック/充電器364は、デジタルカメラ付き電話機301内の電池(図示せず)を再充電するために使用することもできる。
デジタルプロセッサ320は、無線モデム350にカップリングされており、無線モデム350は、デジタルカメラ付き電話機301がRFチャネル352を介して情報を送信し受信するのを可能にする。無線モデム350は、ラジオ周波数(例えば無線)リンクを介して、携帯電話ネットワーク358、例えば3GSMネットワークと交信する。携帯電話ネットワーク358は、写真サービス・プロバイダー372と交信し、写真サービス・プロバイダー372は、デジタルカメラ付き電話機301からアップロードされたデジタル画像を記憶することができる。これらの画像は、汎用制御コンピュータ40を含む他のデバイスによって、インターネット370を介してアクセスすることができる。携帯電話ネットワーク358はまた、通常の電話サービスを提供するために、標準的な電話ネットワーク(図示せず)に接続する。
本発明の態様が図2に示されている。本発明は、画像から固有顔集合を自動的に抽出することによって、人々を含有する画像及びビデオの集合を整理するのを助ける。抽出に続いて、それぞれの顔を表すアイコンがディスプレイ上に表示される。このアイコンは、特定の人物を含有する画像及びビデオをラベル付けし、そして当該特定の人物を含有する画像及びビデオに関してクエリーを行うプロセスを単純化するために使用される。図2は、図1の構造において具体化され、これらの機能のうちの多くが、デジタルプロセッサ320によって提供される。本発明は、図1に示された環境以外の多くの種々異なる環境においても適用することができ、デジタルカメラ又はコンピュータ又はその他の電子デバイス上で使用することができる。
デジタル画像収集物102及びデジタル画像収集物部分集合112は、画像及びビデオの両方を含む。便宜上、「画像」という用語は、単独フレーム画像及びビデオの両方を意味する。ビデオは、音声及び時にはテキストを伴う画像の集合体である。デジタル画像収集物部分集合112は、クエリー336を開始するためにユーザーコントロール334を使用するユーザーによって指示されるような、該当人物を含有すると考えられるデジタル画像収集物102からの画像集合である。クエリーエンジン338は、データベース114内に記憶された情報を使用して、クエリー336を満足させるデジタル画像収集物102からの画像を見付けることによりデジタル画像収集物部分集合112を生成する。デジタル画像収集物部分集合112は、人間のユーザーによって見直すためにディスプレイ332上に表示される。
人物たちを含有するデジタル画像収集物102は、画像及びビデオ内の人物たちを識別するために、人物検出子110によって検査される。人物検出子110は手動操作することができ、この操作の場合、ユーザーは、画像及びビデオ内の人物たちを輪郭付け、目の位置を示し、又はこれと類似のことを行うことにより、画像及びビデオ内の人物たちの位置を入力する。好ましくは、人物検出子110は、顔検出アルゴリズムを実施する。ヒトの顔を検出する方法が、デジタル画像処理の分野においてよく知られている。例えば、画像内の人間の顔を見付ける顔検出法が、下記論文に記載されている:Jones, M.J.; Viola, P.,“Fast Multi-view Face Detection”、IEEE Conference on Computer Vision and Pattern Recognition (CVPR)、2003年6月。特徴抽出子106は、検出されたそれぞれの人物と関連付けられる特徴を抽出し、そして抽出された特徴をデータベース114内に記憶する。
固有顔ファインダー108は、検出された人物たちからの特徴集合を調べ、そして固有顔集合120を見付ける。理想的には、固有顔集合は、デジタル画像収集物102内に現れる各人物の、正確に1つのインスタンスを含有する。固有顔集合120内の各顔は、集合内の他の顔とは異なる人物のものであると考えられる。固有顔集合120は、X回よりも多い回数にわたってデジタル画像収集物102内に現れるか、又は画像及びビデオの少なくともY%に現れるそれぞれの人物の1つのインスタンスであってもよい。例えば、固有顔ファインダー108は、Chen及びDasによる米国特許出願公開第2003/0210808号明細書に記載された顔クラスタリング法と類似するアルゴリズムを実行することができる。第1に、或る顔と関連付けられた特徴集合が、データベース114からランダムに選択され、固有の個人名で呼ばれる。第2に、別の特徴集合がフェッチされ、そして前に指定された全ての人物と比較され、相違スコアを生成する。この比較は、顔認識プログラム、例えばVisionics FaceIt Software Developer's Kit (SDK)によって、又は単に特徴ベクトル対の間のユークリッド距離を計算することにより行われる。相違スコアは、所定の閾値と比較され、そしてもしもスコアが十分に大きい場合(すなわち、新たにフェッチされた特徴集合が、前に指定された全ての人物と関連付けられた特徴集合とは十分に異なる場合)、新たにフェッチされた特徴集合は固有の個人名で呼ばれる。そうでない場合には、割り当て先のない顔は、最高相違スコアを有する顔を含有するクラスターに追加される。全ての特徴集合が調べられるまで、上記ステップ(第2ステップから)が繰り返される。例えば図3は、デジタル画像収集物102からの画像集合220を示す。検出された顔はボックス222で示される。
結果として得られた固有顔集合120は、アイコン・クリエーター122に入力され、アイコン・クリエーター122は、固有顔集合120内の各顔からアイコンを作成する。このことは、デジタル画像収集物102の元の画像又はビデオからの顔に対応する領域をトリミングしてサイズ変更することによって達成される。例えば図4は、図3に示された画像収集物102の固有の人物たちと関連付けられたアイコン224を含有する固有アイコン集合124を示している。
このような固有アイコン集合124は、画像収集物102の整理、ラベル付け、及びクエリーを行うための強力なユーザーコントロール集合を形成するために使用される。図5に示されているように、デジタル画像収集物102は、固有顔集合120のアイコン224に隣接して表示されている。ユーザーコントロール334を使用して、ユーザーは、固有顔集合120のアイコン224のうちのいずれか又は全てに対してラベル226を提供することができる。加えてユーザーは、例えば、特定のアイコン224によって示される特定の人物を含有する画像集合を、典型的なユーザーコントロール334、例えばタッチ・スクリーン、マウス、音声入力、テキスト入力、又はキーボード入力を用いて、そのアイコン224上にドラッグ・アンド・ドロップすることによって、デジタル画像収集物102内の他の画像を容易にラベル付けする。当業者には明らかなように、他のユーザーコントロール構成、例えばジェスチャに基づくシステムを使用することもできる。次いで図2のレベラー104が、データベース114内のこのような関連付けを記録する。或いは、デジタル画像収集物102の画像又はビデオ上にアイコン224をドロップすることにより、アイコンによって表された人物がターゲット画像又はビデオ内に位置していることを指示することもできる。加えて、ターゲット画像内に2人以上の人物が存在するときには、ターゲット画像内部の正確な場所が、アイコン224と関連付けられる人物の位置を指示する。
ラベラー104から提供されたラベルは、特定の画像又はビデオが該当人物を含有することを示す。ラベルは典型的には名前であってよく、また下記のもののうちの少なくとも1つを含む:
(1) 画像又はビデオにおける該当人物の名前。人物の名前は、ニックネームを含む名、又は特定の関係又は人物の識別子(例えばママ)であってよい。
(2) 該当人物と関連付けられた文字列のような識別子、又は「人物A」又は「人物B」のような識別子。
(3) 画像又はビデオ内部の該当人物の位置。
なお、「タグ」、「キャプション」、及び「注釈」という用語は、「ラベル」という用語と同義のものとして使用される。
該当人物に対する探索が、下記のようにユーザーによって開始される:
ユーザーは、相応の1つ又は2つ以上のアイコン224をクリックする(又は接触するか、又はその他の形でユーザーコントロール334を通して指示する)ことによって、該当する1人又は2人以上の人物の画像に関するクエリー336を示す。次いでクエリーエンジン338は、該当人物であることを示すラベルを有する、検出された人物を含有する画像に関して、又は指示されたアイコンの顔の特徴と関連付けられた特徴と類似する対応特徴を有する人物を含有する画像に関して、データベース114を探索する。
例えば、図5を再び参照して、ユーザーが、3つのアイコン224のうちの第1及び第2のアイコンをクリックすることにより、ハンナ及びジョーナの画像に関するクエリーを開始すると想定する。クエリーエンジン338は、ハンナ及びジョーナのラベルを付けられた人物たちを含有する画像、又はハンナ及びジョーナのアイコンの特徴と関連付けられた特徴と類似する特徴を有する人物を含有する画像を見付ける。アイコンのうちの1つはラベル付けされていない。特徴ベクトルの比較は、パターン認識の基本的なタスクであり、さらに論じることはしない。図6に示された、結果として生じたデジタル画像収集物部分集合112が、次いでディスプレイ332上でユーザーに示される。次いでユーザーは、デジタル画像収集物部分集合112の画像を容易にラベル付けして、事実上クエリーエンジン338の誤りを訂正することができる。前述の画像ラベル付け方法に加えて、デジタル画像収集物部分集合112がディスプレイ332上に示される探索終了時に、「これらの画像をラベル付けしますか?」というメッセージがディスプレイ上に現れ、そしてユーザーは、「はい」を選択することにより、デジタル画像収集物部分集合112の画像が該当人物(ハンナ及びジョーナ)を含有することを確認することができ、それと同時に、データベース114は、ハンナ及びジョーナのラベルを、デジタル画像収集物部分集合112の画像と関連付けるように更新される。或いは、ユーザーは「いいえ」を選択し、デジタル画像収集物部分集合112の画像に対するラベルを修正しないままにすることを選ぶこともできる。
図7は、図2の特徴抽出子106をより詳細に示している。特徴抽出子106は、デジタル画像収集物内の画像及びビデオの人物に関係する特徴を決定する。これらの特徴は次いで、該当人物を含有すると考えられるデジタル画像収集物102内の画像又はビデオを見付けるために、人物ファインダー108によって使用される。特徴抽出子106は、人物たちに関係する2つのタイプの特徴を決定する。グローバル特徴検出子242は、グローバル特徴246を決定する。グローバル特徴246は、ビデオの画像内のその人物の同一性又は位置とは無関係の特徴である。例えば撮影者の同一性はグローバル特徴である。なぜならば、撮影者の同一性は、いかに多くの人物たちが画像又はビデオ内に存在しようとも不変であり、またこれらの人物達の位置及び同一性とも同じく無関係であるからである。
追加のグローバル特徴246は下記のものを含む:
画像/ビデオのファイル名。
画像/ビデオ・キャプチャ時間。画像キャプチャ時間は、時刻において正確な分、例えば2004年3月27日午前10:17であることが可能である。或いは、画像キャプチャ時間はさほど正確でなくても、例えば2004年又は2004年3月であることも可能である。画像キャプチャ時間は、確率分布関数の形態、例えば95%の信頼度で2004年3月27日±2日の形態であることが可能である。多くの場合、キャプチャ時間は、デジタル画像又はビデオのファイルヘッダ内に埋め込まれる。例えばEXIF画像フォーマット(www.exif.orgに記載)は、画像又はビデオのキャプチャ・デバイスが、デジタル画像又はビデオと関連付けられる情報をファイルヘッダ内に記憶するのを可能にする。「日付\時刻」の入力は、画像がキャプチャされた日付及び時刻と関連付けられる。いくつかの事例の場合、デジタル画像又はビデオは、フィルムの走査から生じ、そして画像キャプチャ時間は、(しばしばキャプチャ時に行われるように)通常は画像の左下コーナーの画像領域内にプリントされた日付を検出することによって決定される。写真がプリントされた日付はしばしば、プリントの裏側に印刷される。或いは、いくつかのフィルム系は、キャプチャ日付のような情報を記憶するために、フィルム内に磁気層を含有する。
キャプチャ条件メタデータ(例えばフラッシュ発光情報、シャッタースピード、絞り、ISO、光景の明るさなど)
地理的場所。場所は好ましくは緯度及び経度の単位で記憶される。
シーン環境情報。シーン環境情報は、人物を含有しない領域内の画像又はビデオの画素値から導き出された情報である。例えば、画像又はビデオ内の人物を含有しない領域の平均値は、シーン環境情報の一例である。シーン環境情報の別の例は、テクスチャ・サンプルである(例えば画像内の壁紙領域からの画素値のサンプリング)。
地理的場所及びシーン環境情報は、関連画像内の人物の同一性に対する重要な手がかりである。例えば、撮影者が祖母の家を訪問した場合、この家は、祖母が撮影されている唯一の場所であり得る。2つの画像が同様の地理的場所及び環境でキャプチャされた時には、これら2つの画像内で検出される人物も同じである可能性はより高い。
シーン環境情報は、2つの画像を見当合わせするために、人物検出子110によって使用することができる。このことは、被撮影者たちはほとんど不動であるが、しかしカメラが連続した写真の間で僅かに動くときに有用である。シーン環境情報は、2つの画像を見当合わせし、これにより、2つのフレームにおける人物たちの位置を整合させるために使用される。この整合は人物ファインダー108によって行われる。なぜならば、2人が、時間的に接近してキャプチャされ見当合わせされた2つの画像内に同じ位置を占める場合には、2人は同一人物である尤度が高いからである。
ローカル特徴検出子240は、ローカル特徴244を算出する。ローカル特徴は、画像又はビデオ内の人物の外観に直接的に関係する特徴である。画像又はビデオ内の人物に対応するこれらの特徴を算出するためには、その人物の位置に関する知識が必要である。ローカル特徴検出子240は、人物検出子110、又はデータベース114、又はその両方から、画像又はビデオ内の人物の位置に関係する情報を渡される。
人物の位置が知られたら、ローカル特徴検出子240は、その人物と関連付けされたローカル特徴244を検出することができる。顔の位置が知られたら、顔特徴(例えば目、鼻、口など)を、よく知られた方法、例えばYuille他の“Feature Extraction from Faces Using Deformable Templates”、Int. Journal of Comp. Vis.,第8巻、第2号、1992年、第99-111頁によって記載された方法を用いて位置特定することもできる。この著者は、口、目、及び虹彩/強膜境界の位置を特定するためのテンプレート照合を用いた、エネルギー最小化法を記載している。顔特徴は、T.F. Cootes及びC.J. Taylor “Constrained active appearance models”、8th International Conference on Computer Vision、第1巻、第748-754頁、IEEE Computer Society Press、2001年7月に記載されているようなアクティブ外観モデルを使用して見付けることもできる。好ましい態様の場合、Bolin及びChenの“An automatic facial feature finding system for portrait images”、Proceedings of IS&T PICS Conference、2002年に記載されている人間の顔のアクティブ形状モデルに基づいた顔特徴点の位置特定方法が用いられる。
ローカル特徴244は、人物の定量的記述である。好ましくは、人物ファインダー特徴抽出子106は、ローカル特徴244の1集合と、グローバル特徴246の1集合とを、検出された人物毎に出力する。好ましくは、ローカル特徴244は、Cootes他の前述のアクティブ外観モデルと類似の方法を用いて見いだされた特定の顔特徴と関連付けられた82個の特徴点の場所に基づいている。顔の画像に対応するローカル特徴点を視覚的に表したものが一例として図8に示されている。ローカル特徴は、具体的な特徴点間の距離、又は具体的な特徴点の集合を繋ぐ線によって形成された角度、又は顔の外観のばらつきを記述する主成分上への特徴点の投影係数であってもよい。
図7を再び参照すると、グローバル特徴246及びローカル特徴244は、データベース114内に記憶される。画像内の全ての人々と関連付けられたグローバル特徴は、FGによって表される。画像内のN人の人物たちと関連付けられたN個のローカル特徴集合は、FL0、FL1、…、FLN-1として表される。画像内の人物nに対応する完全な特徴集合は、Fnとして表され、そして、グローバル特徴FGとローカル特徴FLnとを含む。画像と関連付けられるM個のラベルは、F0、F1、…、FM-1として表される。ラベルが人物の位置を含まないときには、どのラベルが画像又はビデオ内の人物を表すどの特徴集合と関連付けられるかを知る上で曖昧さがある。例えば、画像内の2人を記述する2つの特徴集合、及び2つのラベルが存在する場合、どの特徴がどのラベルと関連するかは明らかではない。人物ファインダー108は、このラベルをローカル特徴集合と照合し、ラベル及びローカル特徴が単一の画像と関連付けられる、このような制約された分類の問題を解決する。任意の数のラベル及びローカル特徴があってよく、またそれぞれの数が異なっていてもよい。
ここで、データベース114における画像と関連付けられたラベル及び特徴の入力例を挙げる:
画像101-346.JPG
ラベルL0:ハンナ
ラベルL1:ジョーナ
特徴F0
グローバル特徴FG
キャプチャ時間:2005年8月7日、東部標準時午後6時41分
フラッシュ発光:なし
シャッタースピード:1/724秒
カメラ・モデル:Kodak C360 ズーム・デジタル・カメラ
絞り:F/2.7
環境:

ローカル特徴FL0
位置:左目:[1400 198] 右目:[1548 202]
C0=[-0.8, -0.01]';
眼鏡:なし

関連付けラベル:不明

特徴F1
グローバル特徴FG
キャプチャ時間:2005年8月7日、東部標準時午後6時41分
フラッシュ発光:なし
シャッタースピード:1/724秒
カメラ・モデル:Kodak C360 ズーム・デジタル・カメラ
絞り:F/2.7
環境:

ローカル特徴FL0
位置:左目:[810 192] 右目:[956 190]
C0=[0.06, 0.26]';
眼鏡:なし

関連付けラベル:不明
本発明の更なる態様において、図9は、固有顔ファインダー108による分析から決定された固有アイコン集合124を示している。大抵の現実世界の問題と同様に、アルゴリズムは完全な性能を有しているわけではなく、従ってアイコン424及び426は実際には、同じ人物の2つの異なるインスタンスである。ユーザーは、例えばアイコン424を(ユーザーコントロール334を介して)選択してこれをアイコン426上にドロップすることにより、これらのアイコン同士を組み合わせることができる。アイコン424及び426が組み合わされていれば、ディスプレイ332は、図5に示されているような3つのアイコンだけを示すことになる。この組み合わせのアクションはまた、アイコンが作成される際の起源となった2つの画像が同一人物を含有することをラベラー104に対して確立する。従って、アイコン424によって表された人物を含有する画像に関するクエリー336は、アイコン424に対応する画像、及びアイコン426が作成される際の起源となった画像の両方を戻すことにする。
さらに、デジタル画像収集物102内に存在する人物が固有顔集合120内には現れないという事態が生じる場合がある。この誤りは、ユーザーがデジタル画像収集物102内にその人物を見いだし、次いで固有の個人の存在を(例えば顔の周りにボックスを描くことによって)指示することにより改められる。次いで、アイコン・クリエーター122は、その人物と関連付けられたアイコンを作成し、そしてこれを固有アイコン集合124に加える。
40 汎用制御コンピュータ
102 デジタル画像収集物
104 ラベラー
106 特徴抽出子
108 固有顔ファインダー
110 人物検出子
112 デジタル画像収集物部分集合
114 データベース
120 固有顔集合
122 アイコン・クリエーター
124 固有アイコン集合
220 画像
222 検出された顔
224 アイコン
226 ラベル
240 ローカル特徴検出子
242 グローバル特徴検出子
244 ローカル特徴
246 グローバル特徴
301 デジタルカメラ付き電話機
303 フラッシュ
305 レンズ
311 CMOS画像センサー
312 タイミング発生器
314 画像センサーアレイ
316 A/D変換器回路
318 DRAMバッファメモリー
320 デジタルプロセッサ
322 RAMメモリー
324 リアルタイム・クロック
325 場所決定子
328 ファームウェア・メモリー
330 画像/データメモリー
332 カラーディスプレイ
334 ユーザーコントロール
336 クエリー
338 クエリーエンジン
340 音声コーデック
342 マイクロフォン
344 スピーカー
350 無線モデム
358 携帯電話ネットワーク
362 ドック・インターフェイス
364 ドック/充電器
370 インターネット
372 写真サービス・プロバイダー
424 アイコン
426 アイコン

Claims (4)

  1. 画像収集物を整理する方法であって:
    a) 該画像収集物内の顔を検出すること;
    b) 特徴抽出子を用いて、該画像収集物内の各検出された顔から人物の外観に関係するローカル特徴並びにそれぞれ対応する画像からカメラ及びキャプチャ条件に関係するグ
    ローバル特徴を抽出すること、該グローバル特徴は、フラッシュ発光情報、及びカメラ・モデルの少なくとも1つを含んでいる;
    c) 該抽出されたローカル特徴及びグローバル特徴を分析することにより、固有顔集
    合を決定すること、ここで該固有顔集合内のそれぞれの顔は、該集合内の他の顔とは異な
    る人物に由来する;
    d) それぞれの固有の顔からアイコンを作成すること
    e) 該アイコンの少なくとも1つをユーザーに表示すること、そして
    f) 該アイコンの該少なくとも1つが選択され該アイコンの別の1つにドロップされると、該アイコンの該少なくとも1つに対応する画像が、該アイコンの該少なくとも1つに対応するようコントロールされること、
    を含んで成る画像収集物を整理する方法。
  2. 該ユーザーが、タッチ・スクリーン、マウス、音声入力、テキスト入力、又はキーボー
    ド入力を用いて、該固有の顔のうちの1つを選択すること
    をさらに含む請求項1に記載の方法。
  3. 該ユーザーが、該選択された固有の顔と関連付けられるラベルを提供する、請求項2に
    記載の方法。
  4. 該選択された固有の顔と類似する顔を含有する画像が、提供された名称によって注釈付けされる請求項3に記載の方法。
JP2009537150A 2006-11-14 2007-11-05 顔認識のためのユーザーインターフェース Expired - Fee Related JP5612310B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/559,544 2006-11-14
US11/559,544 US8315463B2 (en) 2006-11-14 2006-11-14 User interface for face recognition
PCT/US2007/023255 WO2008076179A1 (en) 2006-11-14 2007-11-05 User interface for face recognition

Publications (3)

Publication Number Publication Date
JP2010509695A JP2010509695A (ja) 2010-03-25
JP2010509695A5 JP2010509695A5 (ja) 2011-01-27
JP5612310B2 true JP5612310B2 (ja) 2014-10-22

Family

ID=39387389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009537150A Expired - Fee Related JP5612310B2 (ja) 2006-11-14 2007-11-05 顔認識のためのユーザーインターフェース

Country Status (4)

Country Link
US (1) US8315463B2 (ja)
EP (1) EP2092461A1 (ja)
JP (1) JP5612310B2 (ja)
WO (1) WO2008076179A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444017B2 (en) * 2004-11-10 2008-10-28 Eastman Kodak Company Detecting irises and pupils in images of humans
US8577166B1 (en) * 2006-03-31 2013-11-05 Google Inc. Optimizing web site images using a focal point
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
JP4998026B2 (ja) * 2007-03-15 2012-08-15 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
US8977631B2 (en) 2007-04-16 2015-03-10 Ebay Inc. Visualization of reputation ratings
US8934717B2 (en) * 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US8144944B2 (en) * 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
US8498451B1 (en) 2007-11-12 2013-07-30 Google Inc. Contact cropping from images
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US8842190B2 (en) 2008-08-29 2014-09-23 Adobe Systems Incorporated Method and apparatus for determining sensor format factors from image metadata
US8368773B1 (en) 2008-08-29 2013-02-05 Adobe Systems Incorporated Metadata-driven method and apparatus for automatically aligning distorted images
US8724007B2 (en) 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
US8391640B1 (en) 2008-08-29 2013-03-05 Adobe Systems Incorporated Method and apparatus for aligning and unwarping distorted images
US8340453B1 (en) 2008-08-29 2012-12-25 Adobe Systems Incorporated Metadata-driven method and apparatus for constraining solution space in image processing techniques
US8194993B1 (en) * 2008-08-29 2012-06-05 Adobe Systems Incorporated Method and apparatus for matching image metadata to a profile database to determine image processing parameters
US20100077289A1 (en) * 2008-09-08 2010-03-25 Eastman Kodak Company Method and Interface for Indexing Related Media From Multiple Sources
US8611677B2 (en) * 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
JP4816717B2 (ja) * 2008-12-09 2011-11-16 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US9210313B1 (en) 2009-02-17 2015-12-08 Ikorongo Technology, LLC Display device content selection through viewer identification and affinity prediction
US9727312B1 (en) 2009-02-17 2017-08-08 Ikorongo Technology, LLC Providing subject information regarding upcoming images on a display
US10706601B2 (en) 2009-02-17 2020-07-07 Ikorongo Technology, LLC Interface for receiving subject affinity information
CN101510934B (zh) * 2009-03-20 2014-02-12 北京中星微电子有限公司 一种数码像框及其显示照片的方法
JP4686619B2 (ja) * 2009-03-23 2011-05-25 株式会社東芝 顔認証を利用した情報処理方法および情報表示装置
JP2010272077A (ja) * 2009-05-25 2010-12-02 Toshiba Corp 情報再生方法及び情報再生装置
US8351661B2 (en) 2009-12-02 2013-01-08 At&T Intellectual Property I, L.P. System and method to assign a digital image to a face cluster
US8630494B1 (en) 2010-09-01 2014-01-14 Ikorongo Technology, LLC Method and system for sharing image content based on collection proximity
US8612441B2 (en) 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
JP2012203668A (ja) * 2011-03-25 2012-10-22 Sony Corp 情報処理装置、物体認識方法、プログラム及び端末装置
FR2983607B1 (fr) * 2011-12-02 2014-01-17 Morpho Procede et dispositif de suivi d'un objet dans une sequence d'au moins deux images
US9256620B2 (en) * 2011-12-20 2016-02-09 Amazon Technologies, Inc. Techniques for grouping images
US20130235223A1 (en) * 2012-03-09 2013-09-12 Minwoo Park Composite video sequence with inserted facial region
US8866943B2 (en) 2012-03-09 2014-10-21 Apple Inc. Video camera providing a composite video sequence
JP5882805B2 (ja) * 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
US9645923B1 (en) 2013-09-10 2017-05-09 Google Inc. Generational garbage collector on multiple heaps
US11170037B2 (en) 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
KR102230267B1 (ko) 2014-09-04 2021-03-19 삼성전자주식회사 영상 표시 장치 및 방법
EP3038108A1 (en) * 2014-12-22 2016-06-29 Thomson Licensing Method and system for generating a video album
US9448704B1 (en) * 2015-04-29 2016-09-20 Dropbox, Inc. Navigating digital content using visual characteristics of the digital content
EP3323083A4 (en) 2015-07-15 2019-04-17 15 Seconds Of Fame, Inc. APPARATUS AND METHODS FOR FACIAL RECOGNITION AND VIDEO ANALYSIS FOR IDENTIFYING INDIVIDUALS IN CONTEXTUAL VIDEO STREAMS
KR20180105636A (ko) 2015-10-21 2018-09-28 15 세컨즈 오브 페임, 인크. 얼굴 인식 애플리케이션들에서 긍정 오류를 최소화하기 위한 방법들 및 장치
US10127945B2 (en) 2016-03-15 2018-11-13 Google Llc Visualization of image themes based on image content
EP3246812A1 (en) * 2016-05-20 2017-11-22 OCE Holding B.V. Roll to roll printing method
KR20240036149A (ko) * 2016-06-03 2024-03-19 매직 립, 인코포레이티드 증강 현실 아이덴티티 검증
WO2018045358A1 (en) 2016-09-05 2018-03-08 Google Llc Generating theme-based videos
WO2018145015A1 (en) 2017-02-06 2018-08-09 Kodak Alaris Inc. Method for creating audio tracks for accompanying visual imagery
CN108064389B (zh) * 2017-09-15 2019-02-01 达闼科技(北京)有限公司 一种目标识别方法、装置和智能终端
AU2017272325A1 (en) * 2017-12-08 2019-06-27 Canon Kabushiki Kaisha System and method of generating a composite frame
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
JP7283101B2 (ja) * 2019-02-12 2023-05-30 日本電気株式会社 処理装置、処理方法及びプログラム
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
TWI704505B (zh) * 2019-05-13 2020-09-11 和碩聯合科技股份有限公司 人臉辨識系統、建立人臉辨識之資料之方法及其人臉辨識之方法
US11283937B1 (en) 2019-08-15 2022-03-22 Ikorongo Technology, LLC Sharing images based on face matching in a network
WO2021106403A1 (ja) * 2019-11-27 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、表示装置及び表示方法
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164831A (en) * 1990-03-15 1992-11-17 Eastman Kodak Company Electronic still camera providing multi-format storage of full and reduced resolution images
US5802208A (en) * 1996-05-06 1998-09-01 Lucent Technologies Inc. Face recognition using DCT-based feature vectors
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US6038333A (en) * 1998-03-16 2000-03-14 Hewlett-Packard Company Person identifier and management system
US6792135B1 (en) * 1999-10-29 2004-09-14 Microsoft Corporation System and method for face detection through geometric distribution of a non-intensity image property
US7221780B1 (en) * 2000-06-02 2007-05-22 Sony Corporation System and method for human face detection in color graphics images
AU2001282483A1 (en) * 2000-08-29 2002-03-13 Imageid Ltd. Indexing, storage and retrieval of digital images
US6977679B2 (en) * 2001-04-03 2005-12-20 Hewlett-Packard Development Company, L.P. Camera meta-data for content categorization
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
US20030210808A1 (en) * 2002-05-10 2003-11-13 Eastman Kodak Company Method and apparatus for organizing and retrieving images containing human faces
JP4427714B2 (ja) * 2002-09-13 2010-03-10 ソニー株式会社 画像認識装置、画像認識処理方法および画像認識プログラム
US7286723B2 (en) * 2003-06-27 2007-10-23 Hewlett-Packard Development Company, L.P. System and method for organizing images
US7274822B2 (en) * 2003-06-30 2007-09-25 Microsoft Corporation Face annotation for photo management
EP1639522B1 (en) * 2003-06-30 2007-08-15 HONDA MOTOR CO., Ltd. System and method for face recognition
US7643684B2 (en) * 2003-07-15 2010-01-05 Samsung Electronics Co., Ltd. Apparatus for and method of constructing multi-view face database, and apparatus for and method of generating multi-view face descriptor
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
EP1669890A4 (en) * 2003-09-26 2007-04-04 Nikon Corp METHOD, DEVICE AND SYSTEM FOR CUMULATING ELECTRONIC IMAGES
JP4431949B2 (ja) * 2003-10-27 2010-03-17 ノーリツ鋼機株式会社 赤目補正方法及びこの方法を実施する装置
US7596247B2 (en) * 2003-11-14 2009-09-29 Fujifilm Corporation Method and apparatus for object recognition using probability models
JP4496465B2 (ja) * 2004-04-23 2010-07-07 ノーリツ鋼機株式会社 赤目補正方法、プログラム、及びこの方法を実施する装置
JP4490214B2 (ja) 2004-09-10 2010-06-23 富士フイルム株式会社 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
EP1805684A4 (en) 2004-10-12 2008-10-22 Samsung Electronics Co Ltd METHOD, MEDIUM AND DEVICE FOR PERSON-BASED PHOTOCLUSTERING IN A DIGITAL PHOTO ALBUM AND METHOD, MEDIUM AND DEVICE FOR CREATING A PERSON-BASED DIGITAL PHOTOALBUM
JP4220458B2 (ja) * 2004-11-19 2009-02-04 富士フイルム株式会社 画像表示装置
US7403642B2 (en) * 2005-04-21 2008-07-22 Microsoft Corporation Efficient propagation for face annotation
JP4638274B2 (ja) * 2005-05-10 2011-02-23 富士フイルム株式会社 画像選択方法、画像選択装置、プログラム、およびプリント注文受付機
JP4914778B2 (ja) * 2006-09-14 2012-04-11 オリンパスイメージング株式会社 カメラ
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition

Also Published As

Publication number Publication date
EP2092461A1 (en) 2009-08-26
US8315463B2 (en) 2012-11-20
JP2010509695A (ja) 2010-03-25
US20080112621A1 (en) 2008-05-15
WO2008076179A1 (en) 2008-06-26

Similar Documents

Publication Publication Date Title
JP5612310B2 (ja) 顔認識のためのユーザーインターフェース
US7711145B2 (en) Finding images with multiple people or objects
JP2009514107A (ja) 集合体からの特定の人物の割り出し
US10528795B2 (en) Imaging workflow using facial and non-facial features
JP4908505B2 (ja) 撮影者を利用した画像の分類
US8643746B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
US7869658B2 (en) Representative image selection based on hierarchical clustering
US20140348394A1 (en) Photograph digitization through the use of video photography and computer vision technology
WO2007105768A1 (ja) 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体
JP2014050022A (ja) 画像処理装置、撮像装置、およびプログラム
JPH10124655A (ja) デジタルアルバムの作成装置及びデジタルアルバム装置
JP2010041527A (ja) 撮影支援方法、システム、プログラム
JP5550114B2 (ja) 撮像装置
JP2015032248A (ja) 画像検索装置、データ検索システム及びプログラム
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP2008158976A (ja) 被写体認識装置、画像検索方法、および被写体認識プログラム
JP2005057360A (ja) 画像撮影装置およびプログラム
JP2013175956A (ja) 撮像装置、撮像方法、画像処理装置、画像処理方法および画像処理システム
WO2019090614A1 (zh) 一种基于智能终端的相册生成方法及相册生成***
JP5609367B2 (ja) 電子カメラ及び画像処理プログラム
JP2010263352A (ja) 画像処理プログラムおよびカメラ
JP2007065897A (ja) 撮像装置及びその制御方法
WO2009096524A1 (ja) 画像向き判定方法と装置及びプログラム
JP2003208615A (ja) 画像処理装置、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101104

AA91 Notification that invitation to amend document was cancelled

Free format text: JAPANESE INTERMEDIATE CODE: A971091

Effective date: 20101221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120724

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121023

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140904

R150 Certificate of patent or registration of utility model

Ref document number: 5612310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees