JP6624794B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6624794B2
JP6624794B2 JP2015048766A JP2015048766A JP6624794B2 JP 6624794 B2 JP6624794 B2 JP 6624794B2 JP 2015048766 A JP2015048766 A JP 2015048766A JP 2015048766 A JP2015048766 A JP 2015048766A JP 6624794 B2 JP6624794 B2 JP 6624794B2
Authority
JP
Japan
Prior art keywords
image
case
face
case images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015048766A
Other languages
English (en)
Other versions
JP2016170542A (ja
Inventor
俊亮 中野
俊亮 中野
佐藤 博
博 佐藤
雄司 金田
雄司 金田
敦夫 野本
敦夫 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015048766A priority Critical patent/JP6624794B2/ja
Priority to US15/059,820 priority patent/US10558851B2/en
Publication of JP2016170542A publication Critical patent/JP2016170542A/ja
Application granted granted Critical
Publication of JP6624794B2 publication Critical patent/JP6624794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
撮影された画像データ内に写るオブジェクトの画像を高度に処理して有用な情報を抽出する技術が多く提案されており、その中でも人間の顔画像を認識して、顔の属性を判定する顔認識と呼ばれる技術がある。顔認識の例としては、顔から人物の性別を推定する性別推定、顔から人物の年齢を推定する年齢推定、又は2つの顔画像が同じ人物であるか否かを判定する顔識別等がある。
顔識別において、比較する2つの顔画像の撮影条件が異なることによる画像の変動は、顔識別の精度に大きな影響を及ぼす。画像の変動の原因となる撮影条件には、照明条件、表情、隠れ、経年変化、顔向き等がある。顔向きを例に撮影条件について説明する。顔向きとは、顔をどの方向から撮影するかということである。顔は、複雑な形状をしている。そのため、撮影された画像は、顔向きにより前面になる顔の部分が変化することで、見た目がめまぐるしく変化する。特に顔識別では、同じ人物における顔向きが異なる顔画像の見た目の変化は、異なる人物間に由来する顔画像の見た目の変化よりも大きく、人物を識別する大きな妨げになっていることが知られている(非特許文献1)。
顔識別において、変動の影響を軽減する方法は、大きく二つある。一つ目の方法は、変動の情報を打ち消して、もともとある顔の情報のみを残す方法である。例えば顔向き変動に対する方法としては、非特許文献2に示される画像変換が代表的な方法である。ただし、非特許文献2の方法では、顔向き変動の影響を受けにくい領域のみを比較して顔向き変動を打ち消すが、照合する顔の領域が減ることで個人差の情報も削られてしまうことが課題となっている。
二つ目の方法は、非特許文献3に示される方法のように、一方の顔画像を、もう一方の顔画像の撮影条件で見たときの見た目を推定して、新しい顔画像を生成する方法である。そうすることで、撮影条件が同じ(変動がない)条件で2つの顔を識別することができる。非特許文献3では、入力された顔の目や鼻等を部品ごとに処理が実行される。例えば目については、多くの人物の目の事例画像と、同じ人物の目を異なる撮影条件で撮影した事例画像と、が、予め対応づけて保持されている。処理の際には、保持されている目の事例画像の中から、入力された目の画像と最も似ているものが一つ選択される。そして、選択された目の事例画像に対応する別の撮影条件の事例画像が選択される。以上の処理を目や鼻等の全ての部品に対して行うことで、あたかも入力された顔を別の撮影条件で撮影したかのような画像を生成することができる。
Face Recognition Across Pose −Review: X. Zhang, Y Gao: 2009 Towards Pose Robust Face Recognition: D. Yi, Z. Lei, S. Z. Li: 2013 An Associate Predict Model for Face Recognition: Q. Yin. X. Tang,J. Sun: 2011
非特許文献3では、予め保持する人物の事例画像が全人類を含むのであれば、どのような顔画像が入力されようと、適切に別の撮影条件での見た目を予測することができる。しかしながら、現実的に保持できる人物の数は有限であり、入力された顔と十分に似ている人物を含まない場合には本人とは似ていない画像が生成されてしまう。
つまり、非特許文献3の方法では、入力と似ている事例画像をひとつだけ検索するという制約のため、有限の事例画像では十分に入力を表現できないという課題がある。
そこで、本発明は、事例画像が入力された顔と十分に類似する人物を含まない場合でも、入力された顔に類似する画像を生成することを目的とする。
そこで、本発明の画像処理装置は、第1の属性を有する入力顔画像を近似る、記第1の属性を有する第1の複数の事例画像の線形結合の係数、前記第1の複数の事例画像の線形結合の結果と前記入力顔画像との差分が小さくなり、かつ、前記第1の複数の事例画像について各事例画像と前記入力顔画像との差分に前記各事例画像に対する係数の絶対値を乗じて加算した総和が小さくなるように決定する決定手段と、前記第1の属性を有する前記第1の複数の事例画像に対応する第2の属性を有する第2の複数の事例画像を、前記決定手段により決定された前記係数で線形結合して前記第2の属性を有する入力顔画像を近似する画像を合成する合成手段と、を有する。
本発明によれば、事例画像が入力された顔と十分に類似する人物を含まない場合でも、入力された顔に類似する画像を生成することができる。
顔向きによる変動の一例を示す図である。 オブジェクト識別装置の機能構成の一例を示す図である。 顔画像識別処理の一例を示すフローチャートである。 カテゴリ判定処理の一例を示すフローチャートである。 画像識別部の機能構成等の一例を示す図である。 識別処理の一例を示すフローチャートである。 登録画像記録部の機能構成等の一例を示す図である。 変動データ生成部の機能構成等の一例を示す図である。 変動データ生成処理の一例を示すフローチャートである。 変動データ生成処理の一例を説明するための図である。 登録画像記録部の機能構成等の一例を示す図である。 カテゴリ判定処理の一例を示すフローチャートである。 照明による変動の一例を示す図である。 変動データ生成部の機能構成等の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態では、撮像装置による撮影対象のオブジェクトとして人間の顔を扱う。本実施形態の処理として、人物の違いを顔画像から識別する顔識別を例に説明する。変動の例としては、オブジェクトと撮像装置との位置関係によって生じる見えの異なりを説明する。オブジェクトと撮像装置との位置関係によって生じる見えの異なりによる変動には、画像中のオブジェクトの向きや、画像中に写るオブジェクトの解像度(画像中のオブジェクトの大きさ)等の変動が挙げられる。
図1は、顔向きによる変動の一例を示す図である。図1(a)は、正面から撮影された人の顔を示している。図1(b)は、図1(a)の顔が手前から見て右方向を向いた(Yaw方向に回転した)際の状況を示している。本実施形態では簡便のため、図1に示すようなYaw方向の角度の変動のみを例として、正面向きの顔画像(a)と右向きの顔画像(b)との変動を扱う処理について説明する。以下では、図1に示す顔のYaw方向の撮影角度の違いを、単に顔向き変動とする。
(全体の構成)
図2は、本実施形態におけるオブジェクト識別装置1000の機能構成等の一例を示す図である。オブジェクト識別装置1000は、画像を入力する画像入力部1100、画像を識別する画像識別部1200、登録画像を保持する登録画像記録部1300、オブジェクトの識別結果及び属性判定結果を出力する外部出力部1400等を含む。オブジェクト識別装置1000は、画像処理装置の一例である。
オブジェクト識別装置1000は、CPU等の単一のプロセッサを有し、各機能構成要素の機能を前記プロセッサにより実行することとしてもよい。また、オブジェクト識別装置1000は、各機能構成要素がそれぞれ別個にCPU等のプロセッサを有し、各機能構成要素のプロセッサにより各機能構成要素の処理が実行されることとしてもよい。
オブジェクト識別装置1000が単一のプロセッサを有す場合、以下のようになる。即ち、前記プロセッサがオブジェクト識別装置1000の記憶部に記憶されたプログラムに基づき処理を実行することによって、後述するオブジェクト識別装置1000の機能及び後述するフローチャートの処理が実現される。
画像入力部1100は、識別すべき画像データを供給する装置であり、光学レンズと映像センサとを備えた撮像装置、又は、画像データが保持され読み出し可能な半導体メモリ等を含む。また、画像入力部1100は、画像識別部1200に、連続して識別すべき画像データを供給する。
登録画像記録部1300は、画像入力部1100から供給された画像データを、識別すべき人物の画像を記録・保持する辞書を記録している。以下では、登録画像記録部1300に保持された識別すべき人物の画像を、単に登録画像とする。登録画像記録部1300は、保持する登録画像を人物ごとに分類し、それぞれ同一のカテゴリとして保持する。登録画像記録部1300は、それぞれの登録画像に対応する顔向き、照明条件等の変動条件を示す属性情報を記録している。登録画像記録部1300は、繰り返し書き換え可能な半導体メモリ等で構成される。登録画像記録部1300は、画像データを数十枚、又は、それ以上保持するために十分に大容量な記憶装置を持つことが望ましい。
画像識別部1200は、画像入力部1100から受付けた顔画像がどのカテゴリに属するか、つまり、予め登録画像記録部1300に登録された人物のうちどれに属するかを出力する。画像識別部1200の処理の詳細に関しては、図3等で後述する。画像識別部1200は、専用回路(ASIC)又は、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPU等)等で構成される。又は、画像識別部1200の処理は、単一の専用回路又は汎用回路(PC用CPU)内部によりプログラムが実行されることによって、実現されてもよい。
外部出力部1400は、画像識別部1200からの出力、つまり画像入力部1100からの入力画像に対応するカテゴリを適切な形式で出力する。外部出力部1400は、CRTやTFT液晶等のモニタで構成され、画像入力部1100から受付けた画像データを表示する。また、外部出力部1400は、表示した画像データに画像識別部1200の出力を表示している画像データ等に重畳して表示する。また、外部出力部1400は、外部の記憶装置への出力機能を有し、出力データを電子データとして外部の記憶媒体等に記憶してもよい。また、外部出力部1400は、印刷機能を有し、出力データを紙媒体に印刷してもよい。
なお、外部出力部1400の出力の方法は、上に挙げた限りではなく、外部出力部1400は、出力データを設定されたアドレスにメールで送信する等してもよい。更に、外部出力部1400は、出力データを複数の方法で出力してもよい。
(識別フロー)
図3は、オブジェクト識別装置1000による顔画像識別処理の一例を示したフローチャートである。図3を参照して、オブジェクト識別装置1000が顔画像を識別する実際の処理について説明する。
S1101において、画像入力部1100は、処理すべき入力画像を取得する。
S1102において、画像入力部1100は、S1101で取得した入力画像に対して、顔検出処理を行う。
S1103において、画像入力部1100は、S1102で顔を検出できたか否かを判定する。画像入力部1100は、S1102で顔を検出できたと判定した場合、S1104の処理に進み、S1102で顔を検出できなかったと判定した場合、S1101の処理に進む。
S1104において、画像識別部1200は、S1102で顔が検出された入力画像を入力として、顔のカテゴリ、即ち人物を判定する処理を行う。カテゴリ判定処理では、画像識別部1200は、登録画像それぞれについて、入力画像で検出された顔に係る人物とどれほど同一人物らしいかを表す類似度を算出する。画像識別部1200は、登録画像それぞれについて算出した類似度を比較して、最も高い類似度に対応する登録画像のカテゴリを、入力画像のカテゴリとして判定する。S1104の処理の詳細は、図4等で後述する。
S1105において、画像識別部1200は、入力画像中の全ての顔について処理を行ったか否かを判定する。画像識別部1200は、入力画像中の全ての顔について処理を行ったと判定した場合、全ての顔を処理したものとして、S1101の処理に進む。また、画像識別部1200は、入力画像中の全ての顔について処理を行っていないと判定した場合、まだカテゴリ判定処理を行うべき顔が残っているとして、S1104の処理に進む。
オブジェクト識別装置1000は、図3の一連の処理を、リアルタイムで実行し、外部出力部1400を介してリアルタイムでカテゴリ判定結果を出力することもできる。リアルタイムとは、ユーザに遅延を感じさせないように、設定された期間内に処理が完了することを意味する。図3には、一連の処理の終了が記されていない。しかし、オブジェクト識別装置1000は、ユーザによるオブジェクト識別装置1000のユーザインターフェースを介した操作に基づいて、停止又は一時停止できるようにしてもよい。
図4は、カテゴリ判定処理の一例を示すフローチャートである。図4は、図3のS1104の処理の詳細について示している。図4を参照して、オブジェクト識別装置1000が入力画像のカテゴリを判定する処理について説明する。
S1201において、画像識別部1200は、画像入力部1100から顔が検出された入力画像を受け付ける。前記入力画像は、静止画であり、人物の顔が1つだけ撮影されているものとする。
S1202において、画像識別部1200は、登録画像として、登録画像記録部1300に予め保持されている顔画像を1つ取得する。
S1203において、画像識別部1200は、S1201で取得した入力画像とS1202で取得した登録画像とを識別し、入力画像に写る人物と登録画像に写る人物とが同一人物かどうかの確からしさを表す類似度を算出する。S1203の処理の詳細については、図6等で後述する。
S1204において、画像識別部1200は、登録画像記録部1300に保持されている全ての登録画像について入力画像との識別処理を行ったか否かを判定する。画像識別部1200は、登録画像記録部1300に保持されている全ての登録画像について入力画像との識別処理を行ったと判定した場合、全ての登録画像について入力画像に対する類似度を得たとして、S1205の処理に進む。画像識別部1200は、登録画像記録部1300に保持されている全ての登録画像について入力画像との識別処理を行っていないと判定した場合、S1202の処理に進む。
S1205において、画像識別部1200は、S1203で算出した類似度のうち最も大きいものと、設定された閾値と、を比較し、比較結果に基づいて、入力画像の最終的なカテゴリを判定する。画像識別部1200は、前記最も大きい類似度が前記閾値以上であれば、入力画像のカテゴリを、前記最も大きい類似度に対応する登録画像が属するカテゴリであると判定する。画像識別部1200は、最も大きい類似度が前記閾値未満である場合、入力画像が属するカテゴリはないと判定する。前記閾値は、オブジェクト識別装置1000の記憶装置等に設定ファイル等の形式で保存されているものとする。オブジェクト識別装置1000は、ユーザによるオブジェクト識別装置1000のユーザインターフェースを介した操作に基づいて、前記設定ファイル等に記憶されている前記閾値の値を変更できる。前記閾値は、予め目的に応じて調整されているものとする。閾値が低いほど、登録されている人物を認識できる可能性は、高まるが、登録されていない人物が登録されている人物のいずれかであると誤って判定される可能性も、高まる。逆に閾値が高いほど、登録されていない人物を誤認識する可能性は、減少するが、登録されている人物を認識できない可能性は、高まる。
(識別処理の概要)
図5は、画像識別部1200の機能構成等の一例を示す図である。図6は、S1203の識別処理の一例を示すフローチャートである。図5、図6を参照して、図4のS1203の処理の概要について説明する。
画像識別部1200は、特徴抽出部1210、類似度算出部1220等を含む。特徴抽出部1210は、入力画像、登録画像から特徴量を抽出する。類似度算出部1220は、特徴抽出部1210により入力画像と登録画像とから抽出された特徴量に基づいて、入力画像と登録画像との類似度を算出する。
S1301において、特徴抽出部1210は、S1201で取得された入力画像を取得する。入力画像は、図4の処理における入力画像と同じであり、顔が一つ写る画像であるとする。
S1302において、特徴抽出部1210は、S1202で取得された入力画像と識別する登録画像を取得する。
S1303において、特徴抽出部1210は、S1301で取得した入力画像とS1302で取得した登録画像とのそれぞれから特徴量を抽出する。
S1304において、類似度算出部1220は、S1303で抽出された入力画像と登録画像との特徴量に基づいて、入力画像と登録画像との類似度を算出する。
図6のS1303、S1304の処理の詳細については、(識別処理における特徴抽出処理)、(識別処理における類似度算出処理)の章で後述する。図4のカテゴリ判定処理では、登録画像記録部1300は、登録された顔画像を、登録画像として保持しているとした。また、登録画像記録部1300は、S1303で得られた登録画像の特徴量を保存することが望ましい。そうすることで、特徴抽出部1210は、再度、入力画像を得た場合に登録画像の特徴量を抽出する処理をせずに済むので、処理の負担の軽減が図れる。
(識別処理における特徴抽出処理)
図6のS1303の処理の詳細について説明する。S1303において、特徴抽出部1210は、顔が写っている入力画像から、個人の識別に必要な特徴量を抽出する。本実施形態では、特徴抽出部1210は、以下のように特徴量を抽出する。
まず、特徴抽出部1210は、入力画像の上に目・鼻・口等の代表的な顔の器官の位置を表す特徴点を検出する。特徴抽出部1210は、特徴点を設定する方法として、公知の技術を用い、例えば以下の参考文献1の技術を用いる。
参考文献1:Active Shape Models − Their Training and Application: T.F. Cootes, C.J. Taylor, D. Cooper, and J. Graham: 1998
続いて、特徴抽出部1210は、入力画像の正規化処理を行う。特徴抽出部1210は、例えば、検出した両目の位置に基づいて、典型的には、両目の幅と傾きが画像上で設定された距離になるように入力画像に回転・拡大縮小処理を施す。
そして、特徴抽出部1210は、正規化した入力画像に対して、特徴量を抽出する矩形領域を設定する。特徴抽出部1210は、領域の大きさを、任意に設定できるが、個人の特徴をよく表す目や口等の器官がもれなく入るように、しかし背景等は入らないように、一辺が目幅のおおよそ1.5倍程度の正方形を顔の中央に設定することが望ましい。
そして、特徴抽出部1210は、設定した矩形領域内の画素値を、左上から右下の順に抽出する。そして、特徴抽出部1210は、抽出した画素値を一列につなげたベクトルを取得する。特徴抽出部1210は、取得したベクトルを前記設定した矩形領域内の画像の特徴量とする。
(識別処理における類似度算出処理)
図6のS1304の処理の詳細について説明する。S1304において、類似度算出部1220は、S1303で取得された入力画像の特徴量と登録画像の特徴量とに基づいて、入力画像と登録画像との類似度を算出する。類似度算出部1220は、類似度として任意の指標を算出してよいが、大きいほど特徴量が類似することを示すような指標を類似度として算出することが望ましい。類似度算出部1220は、例えば、特徴量のベクトル同士が成す角度のコサインを類似度として算出してもよいし、特徴量のベクトル間のユークリッド距離の逆数を類似度として算出してもよい。
(登録処理の概要)
図3の顔識別処理の実行の前に、登録画像記録部1300により予め実行される登録画像の登録処理について説明する。図7は、登録画像記録部1300の機能構成等の一例を示す図である。
登録画像記録部1300は、画像内の顔の向きを検出する顔向き検出部1310、新しい顔画像を生成する変動データ生成部1320、登録画像を保持する登録画像保持部1330等を含む。
登録画像保持部1330は、画像入力部1100から受付けた顔の写る登録用入力画像と前記登録用入力画像に対応する属性情報とを保存する。顔の写る登録用入力画像は、入力顔画像の一例である。そして、変動データ生成部1320は、受け付けた登録用入力画像から、別の顔向きを持つ新しい顔画像を生成する。登録画像保持部1330は、変動データ生成部1320により生成された顔画像を登録用入力画像と同じカテゴリの画像として保存する。変動データ生成部1320の処理の詳細については、図8、図9等で後述する。
登録画像記録部1300は、登録用入力画像から、複数の異なる属性情報(顔向き等)を有する登録画像を生成して登録する。それにより、登録画像記録部1300には、識別すべき入力画像としてどんな顔向きの画像が入力されてきても、前記入力画像と顔向き変動のない(同じ属性情報を持つ)登録画像は、少なくとも1つ登録されていることになる。そのため、画像識別部1200は、前記入力画像と前記入力画像と変動のない登録画像とで類似度の算出を行うことができ、精度良くカテゴリ判定ができることとなる。登録画像記録部1300は、どのような顔向きの画像をどれだけ生成するかを、登録画像保持部1330の容量、顔画像の一組あたりの識別に係る期間等に基づいて、決定する。登録画像記録部1300は、顔向きが角度10度から15度刻みの変動をもつ複数の顔画像を生成しておくことが望ましい。
(登録処理における変動データ生成処理)
図8は、変動データ生成部1320の機能構成等の一例を示す図である。図9は、変動データ生成処理の一例を示すフローチャートである。図10は、変動データ生成処理の一例を説明するための図である。図8、図9、図10を参照して、別の顔向きを持つ新しい顔画像を生成する処理の詳細について説明する。本実施形態において、変動データ生成部1320は、変動データの生成処理として、手前から見て右を向いた顔であるという条件の目の領域についての画像を生成する処理を行うとする。
変動データ生成部1320は、画像中の顔領域を抽出する顔領域抽出部1321、入力画像を近似するため事例データの線形結合を求める近似表現部1322、事例データを保持する事例データ保持部1323を含む。また、変動データ生成部1320は、顔の部分領域の画像から全体の顔画像を合成するデータ合成部1324等を含む。
S1401において、顔向き検出部1310は、画像入力部1100から登録用入力画像を受付ける。登録用入力画像は、正面向きの顔が写る画像であるとする。
S1402において、顔向き検出部1310は、S1401で取得した登録用入力画像に写る顔の顔向きを検出する。本実施形態では、顔向き検出部1310は、前記登録用入力画像に写る顔の顔向きを正面向きであると検出する。顔向きを検出する方法としては、以下の参考文献2等の公知の技術がある。
参考文献2:Support vector machine based multi−view face detection and recognition: Y. Li, S. Gong, J. Sherrah, and H. Liddell: 2004
S1403において、顔領域抽出部1321は、登録用入力画像から目・鼻・口等の部分領域を抽出する。部分領域を抽出する方法としては、図6の特徴抽出部1210の説明で述べたように、顔画像の上に特徴点を設定し、設定した特徴点に基づいて領域を切り出す方法等がある。本実施形態において、顔領域抽出部1321は、登録用入力画像から目の部分領域を抽出することとし、抽出した画像を部分領域画像xとする。
事例データ保持部1323は、登録画像保持部1330に保持される正面向きの顔が写る登録画像から抽出した目の部分領域画像をN人分、保持しており、保持している部分領域画像を正面向きの事例画像とする。N人分の正面向きの事例画像をF=[f1、f2、f3、・・・、fN]と表す。fn(nは、1<=n<=Nを満たす自然数)は、正面向きの事例画像の一つ一つを表す。また、Fは、一つ一つの正面向きの事例画像を並べてベクトルとして表現したものである。
また、事例データ保持部1323は、登録画像保持部1330に保持される右向きの顔が写る登録画像から抽出した目の部分領域画像をN人分、正面向きの事例画像と同じ人物同士で対応付けて保持しており、保持している部分領域画像を右向きの事例画像とする。更に、正面向きの事例画像と右向きの事例画像とは、同じ人物の間で予め対応づけられているとする。N人分の右向きの事例画像をR=[r1、r2、r3、・・・、rN]と表す。rn(nは、1<=n<=Nを満たす自然数)は、右向きの事例画像の一つ一つを表す。また、Rは、一つ一つの右向きの事例画像を並べてベクトルとして表現したものである。
図10の(a)は、正面向きの事例画像と右向きの事例画像との関係を表している。事例データ保持部1323は、事例画像の数Nを、登録画像として与えられる人物の人種・性別・年齢の幅によって調整するものとする。事例データ保持部1323は、非特許文献3に示されるように、事例画像の数Nを数百ほどにするのが望ましい。
S1404において、近似表現部1322は、S1403で抽出された部分領域画像xと同じく顔向きが正面向きである顔の目の部分に対応する事例画像を、事例データ保持部1323から、取得する。近似表現部1322は、事例データ保持部1323の保持する顔の目の部分に対応する事例画像の中から、顔向きが正面向きであることを示す属性情報を持つ事例画像を抽出する。そして、近似表現部1322は、事例画像のうち少なくとも1枚以上を線形結合することにより部分領域画像xを近似的に再現する。より具体的には、近似表現部1322は、次の式(1)を最も満たすN次元の線形結合係数ベクトルαを求める。
Figure 0006624794
式(1)は、次の式(2)で表される線形結合する事例画像の重みの絶対値の和をできるだけ小さくしつつ、次の式(3)で表される部分領域画像xとの誤差(差分)を表すL2ノルムを最小化する制約式である。
Figure 0006624794
Figure 0006624794
αを解く数値処理方法には、以下の参考文献3の方法等の公知の方法がある。
参考文献3:Regression shrinkage and selection via the lasso: R. Tibshiran: 1996
参考文献3の方法を用いて求まるαは、ほとんどの要素がゼロのベクトルとなり、一部の事例画像のみを線形和する疎な線形結合係数ベクトルとなる。
また、近似表現部1322は、次の式(4)を最も満たすN次元の線形結合係数ベクトルαを求めるようにしてもよい。
Figure 0006624794
式(4)は、式(1)に対して、追加制約として、式(5)で示すように、入力と類似する事例画像つまり入力からのL2ノルムが小さい事例画像に大きな重みを与えて線形結合するような制約を加えたものである。
Figure 0006624794
式(1)、式(4)中のλは、定数であり、画像の登録処理の前に予め調整されているものとする。図10の(b)は、S1404の処理を示す。
S1405において、データ合成部1324は、生成処理の次の段階として、S1404で得られた線形結合係数ベクトルαを用いて右向きの事例画像を線形結合して右向きの部分領域画像xrを合成する。xrを合成するための式は、次の式(6)となる。また、図10の(c)は、S1405の処理を示す。
Figure 0006624794
S1406において、変動データ生成部1320は、S1405で全ての変動条件について変動データが生成されたか否かを判定する。変動データ生成部1320は、S1405で全ての変動条件について変動データが生成されたと判定した場合、S1407の処理に進み、S1405で全ての変動条件について変動データが生成していないと判定した場合、S1405の処理に進む。
S1407において、変動データ生成部1320は、登録用入力画像内の目・鼻・口等の部分領域の全てについてS1404〜S1406の処理が完了したか否かを判定する。変動データ生成部1320は、登録用入力画像内の目・鼻・口等の部分領域の全てについてS1404〜S1406の処理が完了したと判定した場合、S1408の処理に進む。変動データ生成部1320は、登録用入力画像内の目・鼻・口等の部分領域の全てについてS1404〜S1406の処理が完了していないと判定した場合、S1403の処理に進む。
S1408において、データ合成部1324は、生成処理の最後の段階として、S1405で合成して得られた目・鼻・口等の部分領域ごとの画像を、全体の顔画像として再構成する。データ合成部1324は、S1403で得られた顔の特徴点の座標に基づいて、得られたS1405で合成された部分領域の画像を貼り合わせる方法等で再構成を行う。
S1409において、変動データ生成部1320は、S1408で再構成された全体の顔画像を、顔向きが右向きであることを示す属性情報と共に登録画像保持部1330に保存する。
S1404の処理について補足説明をする。本実施形態では、処理の対象の画像の特徴量を画像内の画素値を左上から右下に一列に並べたベクトルとして表したが、前記ベクトルは、画像のピクセル数と同じ次元となり、画像のサイズに応じて、次元数が膨大になり、処理負担も膨大となる恐れがある。そこで、オブジェクト識別装置1000は、処理の対象の画像のベクトルを予めPCA(Principal Component Analysis)等で求めた線形射影基底によって、元のベクトルよりも低次元のベクトルに線形変換してもよい。その場合、本実施形態の処理の対象の画像の特徴量は、線形変換された低次元のベクトルとして表されることになる。近似表現部1322は、部分領域画像xと正面向きの事例画像Fとがともに低次元のベクトルに線形変換されることで、S1404の処理における計算負荷を軽減できる。
以上が、本実施形態の処理の説明である。
(本実施形態の処理による効果)
本実施形態の処理により、オブジェクト識別装置1000は、事例画像が入力された顔と十分に類似する人物を含まない場合でも、入力された顔に類似する画像を生成することができる。本実施形態のオブジェクト識別装置1000は、複数の事例画像を組み合わせて入力を表現するような制約にすることで、非特許文献3の技術に比べて、有限の事例画像でも十分に入力を表現できるようになった。
本実施形態では、オブジェクト識別装置1000は、従来技術において利用されている顔についての有用な仮定を利用するようにした。顔についての有用な仮定とは、次の二つの仮定である。
一つ目の仮定は、人間の顔というものは無限のバリエーションを持ち、一人一人で異なるものだが、目、鼻、口等の部品に分解すると顔全体に比べて極めて少ないバリエーションしかないとういうものである。
二つ目の仮定は、ある別人物二人の顔の部品がある撮影条件で見た目が似ている場合、別の撮影条件でも同様に見た目が似ているというものである。撮影条件が変動した際の顔の見た目の変化の仕方、例えば顔向きが変動した場合の見た目の変化の仕方は、顔の三次元形状に依存する。また、顔を画像として見たときの平面の見た目と顔の奥行きを含めた三次元形状とには、ある程度の相関がある。したがって、ある撮影条件で2つの顔の部品の見た目が似ている場合、同様に、暗黙的に内在する顔の三次元形状は、互いに似ており、例えば顔向きが変動した際の顔の見た目の変化の仕方も似ていると仮定できる。
二つ目の仮定を言い換えると、以下のようになる。即ち、顔の三次元形状は、顔の画像上の見た目からを暗黙的に予測される。別の撮影条件での顔の見た目は、予測された前記撮影条件における顔の三次元形状から予測される、ということになる。
本実施形態のS1404では、近似表現部1322は、式(1)で、複数の事例画像を線形結合して入力との誤差が小さくなるような近似表現を求める。しかし、式(1)には、前記二つ目の仮定を利用するような制約が入っていない。そのため、近似表現部1322は、入力と似ていない事例画像も線形結合してしまうため、入力の三次元形状を正しく予測できずに破綻した画像を生成してしまう可能性がある。
近似表現部1322は、式(2)を用いて、入力と類似する事例画像に大きな重みを与えて線形結合するよう制約することで、入力の三次元形状を正しく予測し、従来技術に比べて、入力を精度よく近似表現することができる。
<実施形態2>
実施形態1では顔向き変動を生成する場合を例に、登録画像から、変動が加えられた画像を予め生成しておく処理について説明した。対して本実施形態では、登録画像と識別対象の画像とのそれぞれについて処理を行い、ともに正面向きの顔を生成してカテゴリ判定する処理について説明する。本実施形態におけるオブジェクト識別装置1000の機能構成の詳細は、登録画像記録部の詳細以外は、実施形態1と同様である。
(登録処理の概要)
本実施形態における予め顔画像を登録する処理について説明する。図11は、登録画像記録部2300の機能構成等の一例を示す図である。登録画像記録部2300は、検出部2310、変動データ生成部2320、登録画像保持部2330等を含む。顔向き検出部2310、変動データ生成部2320の詳細は、それぞれ実施形態1の顔向き検出部1310、変動データ生成部1320の詳細と同様である。
登録画像記録部2300と実施形態1の登録画像記録部1300との差異は、以下の点である。即ち、登録画像保持部2330は、画像入力部1100から受付けた顔画像を直接登録画像として保存せず、前記顔画像を正面向きに変換した顔画像を一つだけ、顔向きが正面向きであることを示す属性情報と共に保存することである。
(識別処理)
図12は、カテゴリ判定処理の一例を示すフローチャートである。本実施形態の図12の処理は、実施形態1における図4のカテゴリ判定処理に対応する処理である。図12を参照しながら、本実施形態におけるオブジェクト識別装置1000が入力画像のカテゴリを判定する処理について説明する。S1202〜S1205の処理は、図4と同様である。
S2101において、画像識別部1200は、画像入力部1100から、顔が検出された入力画像を受付ける。
S2102において、画像識別部1200は、S2101で取得した入力画像を変換し、顔向きが正面向きになるような顔画像を一つだけ生成する。
実施形態1の識別処理では、登録画像記録部1300は、登録画像として様々な顔向きの登録画像が複数登録している。そのため、登録画像記録部1300に登録されている登録画像のうち少なくとも一つは、識別対象の入力画像と顔向き変動がない条件で識別される。
対して本実施形態では、オブジェクト識別装置1000は、登録画像記録部2300に登録されている登録画像と識別対象の入力画像とをともに正面向きへ変換することで、登録画像と入力画像とを顔向き変動がない条件で識別できる。
(本実施形態の処理による効果)
本実施形態の処理により、識別処理において、入力画像と類似度を算出する必要がある登録画像の数は、一つのカテゴリにつき一つとなり、一つのカテゴリにつき複数の登録画像と類似度を算出する必要があった実施形態1の場合に比べて、少なくなる。そのため、オブジェクト識別装置1000は、識別処理において、入力画像と登録画像との類似度の算出の処理の負担を軽減できる。
実施形態1では、オブジェクト識別装置1000は、本実施形態の場合と比べて類似度を算出する処理の回数が多くなるが、登録画像の登録の際及び入力画像の入力の際に変動データ生成処理を行う必要がないという利点がある。
オブジェクト識別装置1000は、使用する状況に応じて、実施形態1の処理か本実施形態の処理かを選択することができる。
<実施形態3>
実施形態1、2では、画像の変動として顔向き変動を例に説明した。本実施形態では、画像の変動として照明変動を例にオブジェクト識別装置1000の処理を説明する。顔の照明変動とは、顔を照らす照明条件の変化による、顔の陰の付き方による画像の変動である。顔の陰の付き方は、顔向きと同様に顔の三次元形状に依存する変動である。そのため、オブジェクト識別装置1000は、実施形態1で説明した処理と同様の処理で照明変動が加わった変動画像を生成できる。
図13は、照明による変動の一例を示す図である。図13(a)は、正面から照明が当たっている正面向きの顔を示す。図13(b)は、手前から見て右側から照明が当たっている図13(a)と同一人物の正面向きの顔を示す。本実施形態では、顔の正面からの照明条件の顔画像(a)から、右からの照明条件の顔画像(b)を生成する処理について説明する。
本実施形態におけるオブジェクト識別装置1000の機能構成の詳細は、照明検出部3310を含むこと及び変動データ生成部の詳細以外は、実施形態1と同様である。
(登録処理における変動データ生成処理)
図14は、変動データ生成部3320の機能構成等の一例を示す図である。本実施形態では、実施形態1の場合と異なり、オブジェクト識別装置1000は、顔の照明条件を検出する照明検出部3310を含む。また、事例データ保持部3323は、正面からの照明条件の事例画像と、右からの照明条件の事例画像と、を含む。
照明検出部3310の処理について説明する。照明検出部3310は、入力画像に写る一つの顔について照明条件として、顔の左右どちらに光源があるかを判定する。以下で、本実施形態における照明条件を判定する方法を説明する。
まず、照明検出部3310は、入力画像の顔領域を正規化する。より具体的には、照明検出部3310は、顔検出の処理で得られた顔の位置と大きさに基づいて、入力画像から顔のみが写る部分画像を抽出する。照明検出部3310は、写る顔の大きさや傾きがどのような顔についてもほぼ一定になるように前記部分画像を抽出する。
次に、照明検出部3310は、抽出した部分画像をバイリニア法等で縮小して、低解像度の部分画像を取得する。照明検出部3310は、顔の目鼻立ちが消えて個人を判定することが不可能だが、顔の全体的な明暗や陰影はわずかに残る程度の部分画像を取得するのが望ましい。
照明検出部3310は、取得した低解像度の部分画像の各画素値を左上から右下の順に並べたものをベクトルとして、予め求めてある基底ベクトルとの内積を求める。照明検出部3310は、求めた内積値が正であるか負であるかにより、顔を照らす光源がどの位置にあるか最終的に判定する。
基底ベクトルを予め求めておく方法としては、線形判別分析等の公知の手法がある。オブジェクト識別装置1000は、予め、左に光源がある条件の縮小部分画像、及び正面に光源がある条件の縮小部分画像、を多数用意しておくことで、二つの照明条件の部分画像を最も識別し得る境界として、基底ベクトルを一つ求めることができる。説明した方法では、顔がある特定の方向を向いている、特に本実施形態では正面を向いていることを仮定している。
以上、本実施形態における照明条件を判定する方法を説明した。しかし、照明条件の判定方法は、前記方法に限られるものではなく、オブジェクト識別装置1000は、以下の参考文献4等の任意の方法を利用して顔から照明条件を判定してよい。
参考文献4:Illumination Cones for Recognition Under Variable Lighting: A. S. Georghiades, D. J. Kriegman, P. N. Belhumeur: 1998
(本実施形態の処理の効果)
本実施形態の処理により、オブジェクト識別装置1000は、照明条件の異なる変動データを生成し、識別処理、登録処理に利用することができる。
<実施形態4>
実施形態1〜3では、画像の変動として顔向き変動、及び照明変動を例に説明した。実施形態1〜3では、オブジェクト識別装置1000は、顔向き変動、照明変動等の変動のうち、一つの変動が加わった変動画像を生成することとした。しかし、オブジェクト識別装置1000は、顔向き及び照明等、複数の変動が複合した変動画像も生成することができる。その場合、オブジェクト識別装置1000は、変動が複合した条件の数だけ、事例データ保持部に顔画像を保持しておけばよい。
実施形態1〜3では、人物の顔を自動判定する例について説明した。しかし、オブジェクト識別装置1000は、実施形態1〜3の処理以外にも、以下のような処理ができる。即ち、オブジェクト識別装置1000は、データ合成処理で画像を変換する処理のみを行い、変換した画像ユーザに提示することができる。その場合、ユーザは、目視で提示された画像に基づいて、人物を識別する。
以上のような処理の例としては、警察で行う監視カメラからの容疑者捜索等ある。監視カメラ映像は、視野が広く顔ひとつひとつの解像度が低く、目視での顔の識別が難しい場合がある。また、警察の手元にある容疑者の顔写真は、撮影されてから年月が経っている場合もあり、経年変化を考慮しなければいけない可能性もある。
オブジェクト識別装置1000は、低解像度については、以下のように対応できる。オブジェクト識別装置1000は、予め事例データ保持部に、低解像度の顔画像と高解像度の顔画像とを人物で対応づけて保持しておく。それにより、オブジェクト識別装置1000は、解像度の違いを画像の変動として扱うことで、解像度の変動がある変動データを生成することができる。オブジェクト識別装置1000は、顔向き変動の例と同様に、低解像度の顔画像から高解像度の顔画像を予測できることとなる。
また、オブジェクト識別装置1000は、経年変化についても、ある時点で撮影した顔画像と年数が経過してから撮影した顔画像とを対応づけて保持しておくことで、顔画像から、その人物が経年変化した顔を予測できる。更に、オブジェクト識別装置1000は、顔の表情の変化についても、ある表情で撮影した顔画像と別の表情で撮影した顔画像とを対応づけて保持しておくことで、顔画像から、その人物の表情の変化した顔を予測できる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1000 画像識別装置、1200 画像識別部、1320 変動データ生成部

Claims (11)

  1. 第1の属性を有する入力顔画像を近似る、記第1の属性を有する第1の複数の事例画像の線形結合の係数、前記第1の複数の事例画像の線形結合の結果と前記入力顔画像との差分が小さくなり、かつ、前記第1の複数の事例画像について各事例画像と前記入力顔画像との差分に前記各事例画像に対する係数の絶対値を乗じて加算した総和が小さくなるように決定する決定手段と、
    前記第1の属性を有する前記第1の複数の事例画像に対応する第2の属性を有する第2の複数の事例画像を、前記決定手段により決定された前記係数で線形結合して前記第2の属性を有する入力顔画像を近似する画像を合成する合成手段と、
    を有する画像処理装置。
  2. 前記決定手段は、前記線形結合と前記入力顔画像との差分と、前記総和に所定の定数を乗じた値との和が小さくなるように、前記第1の複数の事例画像の線形結合の係数を決定する請求項1記載の画像処理装置。
  3. 前記決定手段は、前記入力顔画像の部分領域画像を近似するように、前記部分領域画像に対応する前記第1の複数の事例画像の線形結合の係数を決定する請求項1又は2記載の画像処理装置。
  4. 前記第1の属性を有する前記入力顔画像の入力を受け付ける受付手段を更に有する請求項1乃至3何れか1項記載の画像処理装置。
  5. 前記第1の複数の事例画像と前記第2の複数の事例画像とを対応付けて保持する保持手段を更に有し、
    前記決定手段は、前記入力顔画像を近似する、前記保持手段が保持する前記第1の事例画像の線形結合の係数を決定し、
    前記合成手段は、前記第1の複数の事例画像に対応する前記保持手段が保持する前記第2の複数の事例画像を、前記決定手段により決定された前記係数で線形結合して合成する請求項1乃至4何れか1項記載の画像処理装置。
  6. 前記入力顔画像の有する画像の変動に関する属性を、前記第1の属性として取得する取得手段を更に有し、
    前記決定手段は、前記取得手段により取得された前記第1の属性を有する入力顔画像を近似する、前記第1の複数の事例画像の線形結合の係数を決定する請求項1乃至5何れか1項記載の画像処理装置。
  7. 前記決定手段は、前記入力顔画像を近似する、前記第1の複数の事例画像の線形結合の係数として、前記入力顔画像の内部の画素値を並べたベクトルを近似するように、前記第1の複数の事例画像それぞれの内部の画素値を並べたベクトルの線形結合の係数を決定し、
    前記合成手段は、前記第1の複数の事例画像に対応する前記第2の複数の事例画像それぞれの内部の画素値を並べたベクトルを、前記決定手段により決定された前記係数で線形結合して合成することで、前記第2の複数の事例画像を、前記決定手段により決定された前記係数で線形結合して合成する請求項1乃至6何れか1項記載の画像処理装置。
  8. 前記決定手段は、前記入力顔画像を近似する前記第1の複数の事例画像の線形結合の係数として、前記入力顔画像の内部の画素値を並べたベクトルを線形変換した特徴量を近似するように、前記第1の複数の事例画像それぞれの内部の画素値を並べたベクトルを線形変換した特徴量の線形結合の係数を決定し、
    前記合成手段は、前記第1の複数の事例画像に対応する前記第2の複数の事例画像それぞれの内部の画素値を並べたベクトルを線形変換した特徴量を、前記決定手段により決定された前記係数で線形結合して合成することで、前記第2の複数の事例画像を、前記決定手段により決定された前記係数で線形結合して合成する請求項1乃至何れか1項記載の画像処理装置。
  9. 前記第1の属性と前記第2の属性とは、顔の向き、照明条件、解像度、表情、年齢のうち、少なくとも1つに関する属性である請求項1乃至何れか1項記載の画像処理装置。
  10. 画像処理装置が実行する画像処理方法であって、
    第1の属性を有する入力顔画像を近似する、前記第1の属性を有する第1の複数の事例画像の線形結合の係数を、前記第1の複数の事例画像の線形結合の結果と前記入力顔画像との差分が小さくなり、かつ、前記第1の複数の事例画像について各事例画像と前記入力顔画像との差分に前記各事例画像に対する係数の絶対値を乗じて加算した総和が小さくなるように決定する決定ステップと、
    前記第1の属性を有する前記第1の複数の事例画像に対応する第2の属性を有する第2の複数の事例画像を、前記決定ステップで決定された前記係数で線形結合して前記第2の属性を有する入力顔画像を近似する画像を合成する合成ステップと、
    を含む画像処理方法。
  11. コンピュータに、
    第1の属性を有する入力顔画像を近似する、前記第1の属性を有する第1の複数の事例画像の線形結合の係数を、前記第1の複数の事例画像の線形結合の結果と前記入力顔画像との差分が小さくなり、かつ、前記第1の複数の事例画像について各事例画像と前記入力顔画像との差分に前記各事例画像に対する係数の絶対値を乗じて加算した総和が小さくなるように決定する決定ステップと、
    前記第1の属性を有する前記第1の複数の事例画像に対応する第2の属性を有する第2の複数の事例画像を、前記決定ステップで決定された前記係数で線形結合して前記第2の属性を有する入力顔画像を近似する画像を合成する合成ステップと、
    を実行させるためのプログラム。
JP2015048766A 2015-03-11 2015-03-11 画像処理装置、画像処理方法及びプログラム Active JP6624794B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015048766A JP6624794B2 (ja) 2015-03-11 2015-03-11 画像処理装置、画像処理方法及びプログラム
US15/059,820 US10558851B2 (en) 2015-03-11 2016-03-03 Image processing apparatus and method of generating face image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015048766A JP6624794B2 (ja) 2015-03-11 2015-03-11 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016170542A JP2016170542A (ja) 2016-09-23
JP6624794B2 true JP6624794B2 (ja) 2019-12-25

Family

ID=56887964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015048766A Active JP6624794B2 (ja) 2015-03-11 2015-03-11 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10558851B2 (ja)
JP (1) JP6624794B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6700791B2 (ja) 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6789762B2 (ja) * 2016-11-02 2020-11-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6558388B2 (ja) * 2017-03-14 2019-08-14 オムロン株式会社 画像処理装置
KR20190013224A (ko) * 2017-08-01 2019-02-11 엘지전자 주식회사 이동 단말기
US10573349B2 (en) * 2017-12-28 2020-02-25 Facebook, Inc. Systems and methods for generating personalized emoticons and lip synching videos based on facial recognition
US11095814B2 (en) 2018-05-25 2021-08-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US10783398B1 (en) * 2018-10-22 2020-09-22 Shutterstock, Inc. Image editor including localized editing based on generative adversarial networks
US10885363B2 (en) 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US10783388B2 (en) * 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
US10746599B2 (en) * 2018-10-30 2020-08-18 Variable, Inc. System and method for spectral interpolation using multiple illumination sources
US11170242B2 (en) 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
US10970574B2 (en) 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
US11328043B2 (en) 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
CN112613460A (zh) * 2020-12-30 2021-04-06 深圳威富优房客科技有限公司 人脸生成模型的建立方法和人脸生成方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU7603894A (en) * 1993-08-27 1995-03-21 Massachusetts Institute Of Technology Example-based image analysis and synthesis using pixelwise correspondence
US7010144B1 (en) * 1994-10-21 2006-03-07 Digimarc Corporation Associating data with images in imaging systems
US20020186878A1 (en) * 2001-06-07 2002-12-12 Hoon Tan Seow System and method for multiple image analysis
KR100831187B1 (ko) * 2003-08-29 2008-05-21 닛본 덴끼 가부시끼가이샤 웨이팅 정보를 이용하는 객체 자세 추정/조합 시스템
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
KR101378372B1 (ko) * 2007-07-12 2014-03-27 삼성전자주식회사 디지털 이미지 처리장치, 그 제어방법 및 제어방법을실행시키기 위한 프로그램을 저장한 기록매체
JP4655235B2 (ja) * 2008-03-14 2011-03-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8085982B1 (en) * 2008-06-20 2011-12-27 Google Inc. Object tracking in video with visual constraints
WO2010147578A1 (en) * 2009-06-15 2010-12-23 Hewlett-Packard Development Company, L.P. Image and theme artwork management
US8306314B2 (en) * 2009-12-28 2012-11-06 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of objects
US20110292198A1 (en) * 2010-05-31 2011-12-01 Silverbrook Research Pty Ltd Microscope accessory for attachment to mobile phone
JP2012008816A (ja) * 2010-06-25 2012-01-12 Univ Of Aizu 認証カード、カード認証端末、カード認証サーバおよびカード認証システム
US8730302B2 (en) * 2010-08-27 2014-05-20 Broadcom Corporation Method and system for enhancing 3D effects for 3D video rendering
US9542975B2 (en) * 2010-10-25 2017-01-10 Sony Interactive Entertainment Inc. Centralized database for 3-D and other information in videos
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
US9323980B2 (en) * 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
US9013485B2 (en) * 2011-06-30 2015-04-21 Adobe Systems Incorporated Systems and methods for synthesizing high fidelity stroke data for lower dimension input strokes
US9489925B2 (en) * 2013-01-04 2016-11-08 Texas Instruments Incorporated Using natural movements of a hand-held device to manipulate digital content
JP2014199519A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 物体識別装置、物体識別方法及びプログラム
US9280701B2 (en) * 2014-05-08 2016-03-08 Shutterfly, Inc. Grouping face images using statistic distribution estimate
JP6472184B2 (ja) 2014-07-29 2019-02-20 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム

Also Published As

Publication number Publication date
US10558851B2 (en) 2020-02-11
US20160267339A1 (en) 2016-09-15
JP2016170542A (ja) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6624794B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2021036059A1 (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
JP6368709B2 (ja) 3次元身体データを生成する方法
WO2019128508A1 (zh) 图像处理方法、装置、存储介质及电子设备
US9852358B2 (en) Information processing device, information processing method, and information processing system
KR101007276B1 (ko) 3차원 안면 인식
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5424819B2 (ja) 画像処理装置、画像処理方法
CN108549873A (zh) 三维人脸识别方法和三维人脸识别***
US20130251246A1 (en) Method and a device for training a pose classifier and an object classifier, a method and a device for object detection
US20060039600A1 (en) 3D object recognition
CN109684969B (zh) 凝视位置估计方法、计算机设备及存储介质
JP6207210B2 (ja) 情報処理装置およびその方法
JP2009020761A (ja) 画像処理装置及びその方法
JP2007072620A (ja) 画像認識装置及びその方法
JPWO2010122721A1 (ja) 照合装置、照合方法および照合プログラム
CN108388889B (zh) 用于分析人脸图像的方法和装置
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN108229375B (zh) 用于检测人脸图像的方法和装置
Ali et al. Object recognition for dental instruments using SSD-MobileNet
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP6202938B2 (ja) 画像認識装置および画像認識方法
JPWO2020194378A1 (ja) 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
KR101621304B1 (ko) 마우스맵을 이용한 능동형태모델 기반 입술 형태 추정 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6624794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151