JP2018081402A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2018081402A
JP2018081402A JP2016222144A JP2016222144A JP2018081402A JP 2018081402 A JP2018081402 A JP 2018081402A JP 2016222144 A JP2016222144 A JP 2016222144A JP 2016222144 A JP2016222144 A JP 2016222144A JP 2018081402 A JP2018081402 A JP 2018081402A
Authority
JP
Japan
Prior art keywords
image
feature
area
face
coincidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016222144A
Other languages
English (en)
Other versions
JP2018081402A5 (ja
Inventor
日下部 稔
Minoru Kusakabe
稔 日下部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016222144A priority Critical patent/JP2018081402A/ja
Priority to US15/809,215 priority patent/US10733423B2/en
Publication of JP2018081402A publication Critical patent/JP2018081402A/ja
Publication of JP2018081402A5 publication Critical patent/JP2018081402A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】特定の物体の特徴検出に係る処理を適切に実行可能にすることを課題とする。【解決手段】顔領域検出部(301)は、所定の指標との一致度に基づいて入力画像から顔領域を検出する。顔領域特徴検出部(302)は、顔領域検出部(301)にて検出された顔領域の特徴を検出する処理を実行する。制御部(305)は、顔領域特徴検出部(302)における処理、及び、検出された顔領域の特徴を出力する顔特徴決定部(303)における処理の内の少なくとも一方を、一致度に応じて制御する。【選択図】図3

Description

本発明は、画像内の物体の特徴を検出する画像処理装置、画像処理方法、及びプログラム、画像処理システムに関する。
近年、撮影された画像内に映っている特定の物体の特徴、例えば人物の顔の特徴を解析し、予め指定された顔画像の人物と同一人物か否かを推定する顔認証技術や、人物の年齢や性別等の人物属性を推定する技術が、監視カメラ等に応用されるようになっている。
画像内の人物の顔の特徴を解析するためには、一般的に、なるべく正面から撮影された顔画像を用いる必要がある。しかし、建物の入り口等に向けて設置された監視カメラであっても、入口を通過する人物が横を向く等することがあるため、必ずしも正面から撮影した顔画像を取得することができるわけではない。そのため、なるべく人物が正面を向いている画像を選択して特徴を解析することが望ましい。
また、特許文献1には、画像内の顔の検出後に、その顔領域に対して特徴量抽出処理を行った結果抽出された顔器官特徴点の位置ずれ量に基づいて、顔の向きを推定する技術が開示されている。
特開2004−252511号公報
ここで、動きのある物体を所定の方向から見た画像、例えば、動きのある人物の顔が正面を向いた時の画像を撮影するためには、その人物が正面を向いた瞬間になるべく撮影が行われるように、画像撮影のフレームレートを上げる必要がある。しかしながら、画像内に複数の人物が写っている場合、顔の特徴を解析する処理は、それら複数の人物の顔の数だけ実行されることになる。例えば特許文献1に開示された技術のように、画像内から検出された全ての顔に対して特徴抽出処理を実行する場合、1フレーム内に写った顔の数だけ顔器官特徴量点の抽出処理を行わなければならない。そのため、1フレームに写った顔の数が多い場合には、抽出処理がフレームレートに追従できなくなり、その結果、正面の顔の特徴を取得することが困難になるという問題が発生する。
そこで、本発明は、特定の物体の特徴検出に係る処理を適切に実行可能にすることを目的とする。
本発明は、所定の指標との一致度に基づいて、入力画像から物体の画像領域を検出する領域検出手段と、前記検出された画像領域の特徴を検出する処理を実行する特徴検出手段と、前記特徴検出手段における処理、及び、前記検出された画像領域の特徴を出力する特徴出力手段における処理の内の少なくとも一方を、前記一致度に応じて制御する制御手段と、を有することを特徴とする。
本発明によれば、特定の物体の特徴検出に係る処理を適切に実行可能となる。
本実施形態の画像処理装置の概略構成を示す図である。 本実施形態の画像処理システムの適用例を説明する図である。 本実施形態の画像処理装置の機能ブロック構成を示す図である。 本実施形態の画像処理の流れを示すフローチャートである。 顔検出と一致率の説明に用いる図である。
以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
本実施形態の画像処理装置は、撮影等された画像から、特定の物体を所定の方向から見た画像領域のみを検出し、その検出した画像領域のみ特徴を検出する。本実施形態では、特定の物体を所定の方向から見た画像領域として、人物の正面の顔の画像領域(以下、顔領域とする。)のみを検出し、その顔領域の特徴を検出する。以下、撮影等された入力画像から、人物の正面の顔領域を検出して、その顔領域の特徴を検出する例を用いて、本実施形態に係る画像処理を詳細に説明する。
図1は、本実施形態に係る画像処理装置の一例としてのコンピュータの概略構成例を示す図である。
図1において、CPU100は、コンピュータの全体の動作を制御する中央演算装置である。RAM102は揮発性メモリであり、プログラムや画像データなどが一時的に格納される。ROM101は不揮発性メモリであり、CPU100の起動用プログラムや各種初期設定データ等が格納されている。ストレージ103は、RAM102と比較して大容量な記録デバイスであり、例えばHDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)である。ストレージ103には、CPU100により実行されるOS(基本ソフトウェア)や、本実施形態に係る画像処理プログラム、その他各種のデータ等が格納されている。また、ストレージ103は、撮影された画像データやネットワーク等を介して取得された画像データ等も記録可能となされている。CPU100は、電源ON等の起動時、ROM101に格納されている起動用プログラムを実行する。この起動用プログラムは、ストレージ103に格納されているOSを読み出し、RAM102に展開するためのものである。CPU100は、OSの起動後、図示しない操作部等を介してユーザにより本実施形態の画像処理を起動する旨の指示がなされると、ストレージ103から本実施形態に係る画像処理プログラムを読み出してRAM102に展開する。これにより、CPU100は、本実施形態の画像処理を実行可能な状態となる。また、CPU100は、本実施形態の画像処理プログラムの動作に用いられる各種データについてもRAM102上に格納して読み書きを行う。LAN104は、ローカルエリアネットワークのインターフェースであり、例えばいわゆるネットワークカメラや他のコンピュータ等との通信を行う。本実施形態の画像処理プログラムはLAN104を介して取得されてもよく、また、本実施形態の画像処理にて扱う画像データもLAN104を介して取得されてもよい。
図2は、本実施形態の画像処理システムの概略的な適用例を示す図であり、コンピュータ200は図1に示した構成を有している。ディスプレイ201は、コンピュータ200に接続され、図示しないユーザ(操作者)がコンピュータ200を操作する際に閲覧等するための表示デバイスである。カメラ202は、例えばネットワークカメラであり、撮影範囲内を撮像し、その撮影画像データをネットワーク経由でコンピュータ200に送信する機能を有する。物体203は、カメラ202の撮影範囲内に存在している被写体であり、本実施形態では人物(以下、人物203とする。)となされている。したがって、カメラ202の撮影画像には、この人物203の画像が映っているとする。
本実施形態の場合、カメラ202としては監視カメラを想定しているが、これに限定されるものでははい。例えば、コンピュータ200には、デジタルスチルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末、工業用カメラ、車載カメラ、ウェアラブルカメラ等が接続されていてもよい。また、コンピュータ200とカメラ202との間は、図1のLAN104等のネットワークデバイス以外に、例えばUSB等により接続されていてもよい。また本実施形態では、カメラ202により撮影される対象(特定の物体)は、監視カメラの撮影範囲内の人物等となされているが、これには限定されず、道路等を走行している各種車両、工場内のコンベアー上を流れている部品や製品、その他、動物等であってもよい。また本実施形態では、カメラ202が撮影した画像をコンピュータ200に送信する例を挙げているが、撮影された画像は、一旦、他のコンピュータのストレージデバイス等に保存された後、そのコンピュータから図2のコンピュータ200に送信されてもよい。
図3は、本実施形態の画像処理プログラムをCPU100が実行することにより形成される各ソフトウェアモジュールを機能ブロックとして表した図である。なお、図3では、各ソフトウェアモジュールを機能ブロックとして表しているが、これら各機能ブロックはそれぞれハードウェアモジュールにより構成されていてもよい。また、これら各機能ブロックの全てがソフトウェアモジュール又はハードウェアモジュールにより構成される場合の他、一部がソフトウェアモジュールで残りがハードウェアモジュールにより構成されていてもよい。
図3において、入力部300は、入力画像を取得する。本実施形態の場合、入力部300は、例えば図2に示したカメラ202により撮影された画像やストレージ103から読み出された画像、LAN104を介して受信された画像などを取得する。本実施形態では、入力画像が動画のフレームとなされている例を挙げ、入力部300は、その動画のフレームをフレーム順に取得する。入力部300により取得された入力画像のデータは、顔領域検出部301、顔領域特徴検出部302に送られる。
顔領域検出部301は、顔一致率算出部310(以下、算出部310とする。)と顔領域決定部320(以下、領域決定部320とする。)を有して構成されている。
算出部310は、入力画像内を、予め設定されている指標を用いて走査し、入力画像内の画像領域毎に指標との一致度を表す値を算出する。本実施形態の場合、使用する指標は、例えば正面顔の画像領域(顔領域)を検出するためのテンプレートであり、算出部310は、そのテンプレートを用いて入力画像内を走査して、画像領域毎に指標(テンプレート)との一致度を表す値を算出する。なお、テンプレートの具体例については、後述する図5(a)〜図5(e)において説明する。一致度を表す値は、テンプレートマッチングにおけるマッチ率を表す値であるため、以下、一致率と表記する。このように、算出部310は、予め設定されている指標を基に入力画像内を走査することにより、入力画像内の画像領域毎に指標との一致率を求め、それら画像領域毎の一致率を算出する。なお、算出部310にて算出される一致率は、入力画像内の各画像領域が人物の顔領域である確からしさを表す値に相当するが、例えば一致率がある程度低い画像領域は人物の顔領域ではない可能性もある。一方、一致率が高い画像領域は、人物の顔領域である可能性が高いといえる。また、算出部310における処理は、入力画像に対するテンプレートマッチング処理であるため、例えば入力画像の全域に対して顔領域の詳細な特徴検出処理を行う場合と比較して処理負担は非常に軽く、高速処理が可能である。算出部310にて画像領域毎に算出された一致率の情報と入力画像は、領域決定部320に送られる。また、算出部310にて画像領域毎に算出された一致率の情報は、制御部305にも送られる。
制御部305は、後述する顔領域特徴検出部302(特徴検出部302とする。)における顔領域の特徴検出処理、及び、顔特徴決定部303(特徴決定部303とする。)における顔領域の特徴決定処理の内の少なくとも一方を、一致率に応じて制御する。
顔領域検出部301の領域決定部320は、算出部310にて画像領域毎に算出された一致率に基づき、入力画像内の複数の画像領域の中で、人物の顔画像と考えられる複数の画像領域のみを、それぞれ顔領域として決定する。例えば、領域決定部320では、算出部310にて算出された一致率を基に、入力画像内で、人物の顔画像の確からしさが高い位置と大きさの複数の画像領域のみが、それぞれ顔領域として決定される。一致率に基づく顔領域の検出処理の具体例については、後述する図5(a)〜図5(e)において説明する。領域決定部320により決定された複数の顔領域を示す情報は、特徴検出部302に送られる。
ここで、本実施形態では、動画の複数のフレームの画像が入力される例を示しており、例えばフレームレートが高い動画の場合には、図2に示した同一被写体の人物203が複数のフレームに亘って映っていることがある。このような場合、例えば、前回のフレームの顔領域の結果を保持しておき、今回のフレームの顔領域と比較をすることで、同一人物の追尾や同定を行うことができる。このため、図3の領域決定部320は、前回フレーム結果保持部321(以下、結果保持部321とする。)と、比較追尾部322とを有している。結果保持部321は、入力画像のフレームにおいて決定された顔領域のデータを保持し、この保持された顔領域のデータを、次回のフレームの画像が入力された際の比較対象(前回のフレームで決定された顔領域のデータ)として、比較追尾部322に送出する。比較追尾部322は、今回のフレームで決定された顔領域と、結果保持部321に保持されている前回のフレームで決定された顔領域との比較により、それら顔領域が同一人物の顔領域か否か(同一人物の顔領域である可能性があるか否か)の同定処理を行う。そして、比較追尾部322は、同一人物の顔領域であると同定した場合には、フレーム間でその同一人物の顔領域の追尾する処理を行う。この比較追尾部322による同定及び追尾の結果を示す情報は、特徴検出部302と後述する特徴決定部303に送られる。
特徴検出部302は、入力画像のうち領域決定部320で決定された複数の顔領域についてのみ、それぞれ顔の詳細な特徴を検出する。特徴検出部302は、顔器官検出部331、人物属性検出部332、同一性判定部333、関連付け部334、特徴量保持部335を有して構成されている。顔器官検出部331は、領域決定部320にて決定された顔領域毎に、例えば目、鼻、口等の顔のパーツ(顔器官)の詳細な大きさや位置等を検出する顔器官検出処理を行う。同一性判定部333は、顔器官検出の結果や比較追尾部322による追尾処理の結果、その他の特徴を解析した結果を基に、領域決定部320で決定された顔領域毎に、予め入力されている他の顔画像に映っている人物と同一か否かを判定する。人物属性検出部332は、顔器官検出の結果、顔領域の色や質感、皺等の位置、その他の解析処理を行った結果等を基に、領域決定部320で決定された顔領域毎に、その顔領域の人物の年齢や性別、人種などの人物属性を推定する。なお、人物の年齢、性別、人種などの人物属性の検出手法は、他にも様々な手法があり、それら手法の何れが用いられてもよい。また、特徴検出部302の特徴検出処理により得られる特徴量は、前述した例に限定されるものではなく、他の様々な特徴検出処理による特徴量であってもよい。本実施形態においては、これら顔領域毎の顔器官検出処理、同一性判定処理、人物属性検出処理により得られた情報が、特徴検出部302により顔領域毎に検出された特徴量となる。また、特徴検出部302での特徴検出処理は、領域決定部320にて決定された顔領域に対してのみ行われるため、例えば入力画像の全域に対して特徴検出処理を行う場合と比較して処理負担は非常に軽くすることができ、高速処理を可能とすることもできる。関連付け部334は、それら顔器官検出部331、人物属性検出部332、同一性判定部333により顔領域毎に検出された各特徴量と、それら顔領域毎の一致率とを関連付けする。特徴量保持部335は、一致率と顔領域の特徴量とを関連付けた関連付け情報を保持する。そして、特徴検出部302は、前述のように検出した複数の顔領域毎の特徴量と関連付け情報とを、特徴決定部303に送る。
なお、特徴検出部302は、人物属性検出部332、同一性判定部333を必ずしも両方有している必要はなく、いずれか一方のみであってもよい。或いは、特徴検出部302は、人物属性検出部332、同一性判定部333以外の、正面顔を解析することが望ましい他の検出処理を有している構成であっても構わない。
特徴決定部303は、特徴検出部302にて検出された複数の顔領域の特徴量、及びそれらに関連付けられた一致率に基づく制御部305による制御の下、最終的に出力する顔領域の特徴量を算出するような特徴出力の処理を行う。一例として、特徴決定部303は、複数の顔領域毎の特徴量のうち、一致率が最も高い顔領域の特徴量を、最終的に出力する顔領域の特徴量として採用する。また例えば、一致率の上位N個(Nは予め定められた数)の特徴量を平均した値や、一致率を重みとして特徴量を加重平均した値を、最終的に出力する顔領域の特徴量として算出してもよい。これらは一例であり、一致率に基づいた顔領域の特徴量を求める様々な算出値を、最終的に出力する顔領域の特徴量としてもよい。また特徴決定部303では、比較追尾部322による複数フレームにおける同一人物の同定及び追尾の結果を基に、同一人物の複数の顔領域を特定し、それら同一人物の複数の顔領域から、一致率に応じて、最終的に出力する顔領域の特徴量が決定されてもよい。このように、本実施形態の特徴決定部303では、顔領域の特徴量と一致率の情報に基づいて最終的に出力する顔領域の特徴量を決定する処理、つまり一致率に基づいた特徴量の出力制御処理が行われる。
出力部304は、特徴決定部303により決定された顔領域の特徴量の情報を、図示しない後段の構成に出力する。図示しない後段の構成では、例えば、本実施形態の画像処理装置から出力された顔領域の特徴を基に顔認証処理等を行う。
図4は、本実施形態の画像処理プログラムを実行することによって図1のCPU100により行われる処理の流れを示すフローチャートである。図4に示すフローチャートの処理は主に図3の各機能ブロックにより行われるが、一部の処理(例えばステップS410)は図3には図示していないCPU100の機能により実行される。なお、以下の説明では、図4のフローチャートの各処理のステップS400〜ステップS414をそれぞれS400〜S414と略記する。
S400において、入力部300は、顔検出処理の際に比較基準として使用される、予め設定されているテンプレートのデータを、ストレージ103又はRAM102から読み込むことにより取得する。テンプレートのデータは、予めストレージ103等に格納されていてもよいし、本実施形態の画像処理プログラムの実行により生成されてRAM102に格納されていてもよい。なお、S400で取得するテンプレートは一つに限定されるものではなく、複数のテンプレート群から構成されてもよい。S400の後、入力部300は、S401に処理を進める。
S401において、入力部300は、図2のカメラ202に対して撮影画像の送信を要求する。そして、入力部300は、S402において、カメラ202により撮影されたフレームのデータを受信する。なお、入力部300は、ストレージ103から画像データを取得してもよい。S402の後、CPU100の処理は、領域検出部301の算出部310にて行われるS403に進む。
S403において、算出部310は、S400で取得されたテンプレートを用い、フレームの入力画像内を走査して、テンプレートに対する複数の画像領域毎の一致率を算出する。なお、S403では、テンプレートをそのまま比較に適用してもよいが、例えばフレームの入力画像或いはテンプレートを拡大縮小、回転等してから比較に用いれば、画像内の顔の映り方が不明で大きさや向きが特定できない場合にも対応することが可能となる。S403の後、CPU100の処理は、領域決定部320にて行われるS404に進む。
S404において、領域決定部320は、算出部310にて算出された一致率を基に、フレーム内で、顔と推定される位置及びその顔の大きさ等を表す顔領域を決定する。さらに、領域決定部320の結果保持部321は、今回のフレームで決定した顔領域のデータを保持する。S404の後、領域決定部320は、比較追尾部322にて行われるS405に処理を進める。
S405において、比較追尾部322は、結果保持部321に保持されている、前回のフレームで決定された顔領域と、今回のフレームから決定した顔領域とを比較する。そして、比較追尾部322は、今回のフレームで決定された顔領域が、前回のフレームで決定された顔領域と同一か否か、つまり顔が同一人物の顔であるか否かの同定を行い、同一人物の顔領域である場合にはそれを追尾する。なお、この比較追尾部322での比較は、顔の画像の詳細な特徴を基に行われる比較ではなく簡易的な比較であり、具体的には顔領域の位置や大きさを比較する処理により実現される。つまり、比較追尾部322は、前回のフレームで決定された顔領域の位置や大きさと、今回のフレームで決定された顔領域の位置や大きさとが似通っている場合に、それら顔領域は同一人物の顔の領域であると判定する。S405の後、CPU100の処理は、特徴検出部302にて行われるS406に進む。
S406において、特徴検出部302は、比較追尾部322による同定と追尾の結果を基に、今回のフレームからは、前回のフレームで決定された顔領域が検出されなかったか否か判定する。S406において同一の顔が検出されなかったと判定(yes)された場合、CPU100の処理は、特徴決定部303にて行われるS412に進む。一方、S406において、同一の顔が検出されたと判定(no)された場合、特徴検出部302は、S407に処理を進める。
S407において、特徴検出部302は、今回のフレームにおいて顔領域が検出されていたか否かを判定する。ここで、S406で同一の顔が検出されたと判定(no)されたことでS407に進んだ場合、S407では、今回のフレームにおいて顔領域が検出されていると判定(yes)されることになるため、特徴検出部302の処理はS408に進むことになる。一方、S407において顔領域が検出されていないと判定(no)された場合、CPU100の処理はS410に進む。なお、S407において顔領域が検出されていないと判定されることがあるのは、S406から後述するS412以降へ処理が進んだ場合であり、S412以降の処理については後述する。
S408において、特徴検出部302は、今回のフレームから検出された顔領域毎に特徴検出処理を行って、顔領域毎の特徴量を求める。領域検出部301は、図3に示したように、顔器官検出部331、人物属性検出部332、同一性判定部333、関連付け部334、特徴量保持部335を有して構成されている。S408の処理は、これら構成のうち、例えば、顔器官検出部331、人物属性検出部332、同一性判定部333により行われる。S408において、顔器官検出部331は、領域検出部301により今回のフレームから検出された顔領域毎に、目、鼻、口などの顔のパーツの詳細な大きさや位置などを検出する顔器官検出処理を行う。またS408において、同一性判定部333は、顔器官検出部331による顔器官検出処理の結果等を用いて、今回のフレームから検出された顔領域が、予め入力された特定の人物の顔画像と同一か否かを判定する同一性判定処理を行う。またS408において、人物属性検出部332は、顔器官検出の結果と顔領域の色や質感等を解析した結果等を基にした人物の年齢や性別、人種などの人物属性を検出する。なお、同一性判定処理と人物属性検出処理は、それら両方が行われてもよいし、何れか一方のみが行われても、或いは処理をより簡略化したい場合にはそれらの両処理を行わないようにしてもよい。特徴検出部302は、S408の顔領域の特徴検出処理の後、S409に処理を進める。
S409の処理は、特徴検出部302の各構成のうち、例えば、関連付け部334、特徴量保持部335にて行われる処理である。S409において、関連付け部334は、S408で顔領域毎に検出された特徴量を、それら顔領域についてS403で算出部310により算出された一致率とそれぞれ関連付けする。そして、特徴量保持部335は、それら顔領域の特徴量と一致率とが関連付けされた関連付け情報を保存する。S409の後、CPU100は、S410に処理を進める。
S410において、CPU100は、不図示の操作部等を介してユーザから処理の終了要求の指示が供給されたか否かを判定し、終了要求がなされたと判定(yes)した場合には図4のフローチャートの処理を終了する。一方、CPU100は終了要求がなされていないと判定(no)した場合には、入力部300により行われるS411に処理を進める。S411において、入力部300は、動画のフレームレート分の時間だけ待機、つまり次のフレームまで待機した後、S402に処理を戻す。これにより、入力部300は、S402において、次のフレームのデータを受信する。なお、例えばフレームレート毎の画像送受信のタイミングを、カメラなどの画像送信側で行う場合には、ステップS411の処理は不要である。この場合、入力部300はステップS402において次のフレームが受信されるまで待ち、次のフレームの受信がなされたとき、CPU100の処理はS403以降に進む。
次に、前述のS406において今回のフレームからは前回のフレームで決定された同一の顔領域が検出されなかったと判定されてS412に進んだ場合について説明する。S412の処理は、制御部305による制御の下、特徴決定部303において行われる。S412において、特徴決定部303は、前述したS409で一致率と関連付けられて特徴量保持部335に保存された特徴量の中に、未出力の特徴量が存在するか否かを判定する。S412にて未出力の特徴量が存在しないと判定(no)された場合、CPU100の処理は、前述したS407以降に進む。一方、S412にて未出力の特徴量が存在すると判定(yes)した場合、特徴決定部303は、S413に処理を進める。
S413において、特徴決定部303は、特徴量保持部335に保存されている顔領域毎の特徴量、及び、顔領域毎に特徴量と関連付けられている一致率に基づく制御部305による制御の下で、最終的に出力する特徴量を算出する。例えば前述したように、S413において、特徴決定部303では、一致率が最も大きな特徴量を採用する処理、又は、一致率の上位N個の特徴量の平均値を算出する処理、又は、上位N個の一致率を重みとした特徴量の加重平均値を算出する処理などが行われる。例えばS413において、特徴決定部303は、S404にて特徴検出部302の人物属性検出部332で検出された顔領域毎の年齢、性別、人種などの人物属性と、顔領域毎に関連付けられている一致率とに基づき、最終的に出力する特徴量が求められてもよい。また、S413において、特徴決定部303では、S405で複数フレームにおいて同定及び追尾の結果を基に特定される同一人物の複数の顔領域から、一致率に基づいて最終的に出力する顔領域の特徴量が決定されてもよい。なお、S413の処理はこれらに限定するものではなく、一致率を基にした他の処理が行われてもよい。S413の後、特徴決定部303は、S414の処理として、S413で決定した顔領域の特徴量の情報を、出力部304に送る。これにより、出力部304は、その顔領域の特徴量を図示しない後段の構成に出力する。S414の後、CPU100の処理は、前述したS407以降に進む。
S412で未出力の特徴量が存在しないと判定されてS407に進んだ場合、又は、S414の処理後にS407に進んだ場合、特徴検出部302は、S407において、前述同様に今回のフレームで顔領域が検出されていたか否かを判定する。そして、S407において、特徴検出部302は、今回のフレームで顔領域が検出されていたと判定した場合、前述したS408以降に処理を進める。この場合のS408では、今回のフレームにおいて検出されていた顔領域、つまり、前回のフレームには無く今回のフレームで新たに検出された顔領域について、前述した特徴量の検出が行われる。そして、次のS409では、その検出された顔領域の特徴量に対して前述同様に一致率が関連付けされて保存されることになる。
以下、図5(a)〜図5(e)を用いて、S400で取得される顔検出処理用のテンプレートと、入力画像内の画像領域(顔領域)とテンプレートとの一致率の算出例について説明する。
図5(a)はS400で取得される顔検出処理用のテンプレート500の一例を示す図である。本実施形態の場合、テンプレート500は、人物の頭部付近の形状に似た形状(この例では円形状)をしている。入力画像から人物を検出する方法は、目的に応じて複数存在するが、本実施形態のように顔の特徴を検出する目的の場合、顔の特徴が判定し易いように、人物が正面を向いたときの顔領域を検出することが望ましい。そのため、本実施形態では、図5(a)に例示したような、人物の顔が正面を向いたときの頭部付近の形状に似た形状のテンプレート500が用いられる。
領域検出部301の算出部310は、図4のS403において、図5(a)のテンプレート500を用いたマッチング処理を行いながら入力画像内を走査することにより、入力画像の中の各画像領域についてテンプレート500との一致率を求める。そして、領域決定部320は、入力画像内の画像領域毎に得られた一致率が、例えば所定の一致率以上となっている画像領域には、それぞれ顔画像(顔領域)が存在していると判定して、それら顔画像を検出した顔領域として決定する。
また、本実施形態では、前述したように、人物の顔の特徴を検出することを目的としているため、図5(a)に示したテンプレート500は、人物が正面を向いたときの顔の形状及び人物の肌色を想定したものとなされている。したがって、図5(a)のテンプレート500を用いた場合、人物が正面を向いているときの顔の画像(正面顔)と、人物が斜めを向いているときの顔の画像(斜め顔)とでは、一致率が異なり、正面顔に近い場合に一致率が高くなる。また、テンプレート500と画像領域の形状が略々一致している場合であっても、画像領域の中で肌色成分が占める面積が少ない場合には、一致率は低くなされる。
例えば、図5(b)は、前述した図2のカメラ202において人物203を正面から撮影した場合に得られる人物画像501を示している。一方、図5(c)は、図2のカメラ202において人物203を斜め方向から撮影した場合の人物画像502を示している。
図5(b)の人物画像501の場合、図5(d)に示すように、人物画像501の頭部の形状が図5(a)のテンプレート500の形状に略々合っており、また肌色成分が占める面積も大きい。一方、図5(c)の人物画像502の場合、図5(e)に示すように、肌色成分が占める面積はある程度大きいものの図5(d)よりは少なく、また人物画像502の頭部の形状とテンプレート500の形状も多少異なっている。すなわち、図5(d)と図5(e)を比較すると、図5(d)の人物画像501の方がテンプレート500と形状が略々一致し且つ肌色成分の面積が大きいため、図5(d)の人物画像501の方が、図5(e)の人物画像502に比べて高い一致率となる。
なお、上述のような肌色成分を検出する際には、人種や照明光などの影響を考慮して、必ずしも一般的な肌の色ではない色を含めてもよい。すなわち、入力画像の画像領域とテンプレートとの比較の際には、人種や照明光などの影響を考慮した略同一色の領域を肌色領域とみなし、それら略同一色の領域が多ければ一致率を高くするようにしてもよい。
また、一致率は、前述した肌色成分の領域の面積に応じた一致率に限定されず、例えば、予め入力画像にエッジ検出フィルタ処理を施して、そのフィルタ処理後の画像の平坦度の一致率であってもよい。また、一致率は、エッジ検出フィルタ処理を施した画像において、画像のエッジ成分とテンプレートのエッジ成分との一致率であってもよい。また、予め適用する処理としては、エッジ検出フィルタ処理以外にも、輝度色差成分への色変換処理や、拡大縮小処理や回転処理であってもよく、この場合、それら処理後の画像とテンプレートの一致率を求める。さらに、特に拡大縮小処理や回転処理などは、入力画像に対して施すのではなく、テンプレートに対して施すようにしてもよい。また、顔領域の検出処理の実行の際にテンプレートに対してそれら処理を施すのではなく、それら処理がなされた複数のテンプレート群を予め用意しておいてもよい。また例えば、複数のテンプレート群を用いる場合において、例えば人物の顔の様々な角度に応じたテンプレートを用いる場合には、テンプレートの角度毎に重みを設定し、より正面顔に近いテンプレートほど重い重み付けをしておくようにしてもよい。そして、使用したテンプレート毎に、一致率に対して更に重み付けが行われていてもよい。なお、上述した処理は、複数のテンプレートを予め用意しておく場合だけでなく、予め保持していたテンプレートに対して幾何学変換処理を施すことで、複数のテンプレートを生成した場合にも有効である。
なお、本実施形態においては、テンプレートの例として図5(a)に示す円形状のテンプレートを例に挙げたが、本発明はこれに限るものではなく、様々な形状のテンプレートが適用可能である。
以上説明したように、本実施形態においては、領域検出部301は、入力画像の複数の画像領域についてそれぞれ指標との一致率を求め、それらの一致率を基に、複数の画像領域の中から人物の顔画像と考えられる複数の顔領域を決定している。この顔領域の決定処理は、指標としてのテンプレートを用いたマッチング処理による簡易的処理により行われるため、それらフレームから顔領域のみを高速に検出可能であり、したがって、例えば動画のフレームレートが高い場合でも顔領域を検出可能となる。特徴検出部302は、領域検出部301にて決定された複数の顔領域について、それぞれ顔器官、人物属性、人物の同一性などの詳細な顔領域の特徴量を検出し、それら検出された顔領域の特徴量と一致率を関連付けて保持する。その後、特徴決定部303は、特徴検出部302で検出された複数の顔領域の特徴量とそれに関連付けられた一致率の情報に基づいて、最終的に出力される顔領域の特徴量を算出する。すなわち、特徴決定部303では、領域検出部301により算出された一致率に基づいて、制御部305により、特徴量の出力処理が制御されている。このように、本実施形態では、顔領域の詳細な特徴量を検出する前に、指標との一致率に基づいて簡易的に正面の顔領域のみが検出され、それら顔領域に対してのみ詳細な特徴量が検出され、さらに特徴量と一致率を基に、最終的に出力する特徴量が算出されている。これにより、本実施形態によれば、入力画像に対する走査時に顔領域の特徴検出処理を実行することなく、なるべく正面に近い顔領域のみを選定し、その結果として、正面の顔領域の特徴量検出を適切かつ高速に実行可能になる。
なお、上述の説明では、図5を用いて説明した一致率に基づいて処理を行う例を示したが、一致率そのものではなく、一致率を使用して算出される他の値に基づいて処理を行うようにしてもよい。
前述の説明では、特徴決定部303がS413において特徴量と一致率に応じた制御により最終的に出力する顔の特徴量を決定する例を挙げたが、特徴検出部302によるS408の処理の実行を、一致率に基づいて変更する制御が行われてもよい。具体例には、予め定められた所定数(N個:Nは予め定められた数)の顔領域の特徴量検出結果を特徴決定部303が保持するようにしておき、制御部305は、一致率が上位所定数(N個)になる場合にのみ特徴検出部302の特徴検出処理を行わせる。これにより、特徴決定部303には、上位所定数(N個)の一致率に対応した顔領域の特徴量が保持されることになる。この例の場合、一致率が上位のN個になる場合にのみ特徴検出部302の処理が行われて、特徴検出部302の処理量が低減されるため、結果として、人物の顔領域の特徴検出の高速化が可能となる。或いは、予め定められた閾値と一致率との比較の結果、一致率が閾値より大きかった場合に、特徴検出部302による図4のS408の処理が実行されるように変更する制御が行われてもよい。この場合も、一致率が閾値より大きい場合にのみ特徴検出部302の処理が実行されて、特徴検出部302の処理量が低減されるため、結果として、人物の顔領域の特徴検出の高速化が可能となる。このように、顔検出処理時の一致率に基づいて特徴量の検出処理が制御されることにより、精度の高い特徴量検出結果が、少ない処理量で得られる(つまり処理の高速化が)ようになる。
またこの例の場合、図4のS405で同定と追尾の処理を行うに当たっては、後段の顔領域の特徴検出処理であるS408の実行やその実行結果の使用には適さない向きの顔領域であっても顔領域として検出されることが望ましい。そのため、様々な顔の向きに対する複数のテンプレートを使用して顔領域の判定を行った上で、使用したテンプレートに基づいて前述した重み付け、或いは顔領域の特徴検出処理であるS408の実行や実行結果の使用可否の制御を行うようにするとよい。
また、上述した実施形態で適用される構成としては、図2に示したようなコンピュータ200で動作するソフトウェアプログラムにより実現される構成例以外にも、様々な適用例が可能である。例えば、カメラ202が、ハードウェア処理或いは組み込みのソフトウェア処理で前述した処理を実現してもよい。或いは、前述した処理の一部をカメラ202で行い、他の処理をコンピュータ200(画像処理装置)で行うなど、単一機器内での処理に限定しない画像処理システムの構成であってもよい。画像処理システムにおけるカメラ202とコンピュータ200による分散処理の例としては、例えば顔領域の決定処理であるS404までの処理をカメラ202で行い、以降の処理をコンピュータ200で実行する方法が考えられる。このように処理を分けることにより、検出された顔領域の数に依存し難い処理がカメラ202内で実行されるため、フレームレートが高い場合でもフレームレートに追従した処理が行い易くなる利点がある。また、分散処理の他の方法としては、S405の顔領域の同定及び追尾処理までをカメラ202で行うようにしてもよい。このようにすることで、特に動きを追尾する必要がある場合において、カメラ202とコンピュータ200との間の通信による遅延が発生しなくなるため、精度の高い追尾を行いながら特徴検出処理を行うことが可能となる。
また、カメラ202の処理性能に応じてカメラが行う処理を決め、それ以外の処理をコンピュータ200で行うようにする構成であってもよい。この構成例における処理の切り分けは、撮像条件やカメラ202の性能に応じて動的に決定してもよいし、予め固定的に割り振ってもよい。このような構成にすることで、多数のカメラ202が接続されている場合においてコンピュータ200の処理負荷を低減でき、より多くのカメラ202を扱うことが可能になるという利点がある。
また、上述の実施形態においては、入力される画像は動画であることを前提に説明を行ったが、静止画に対して処理を行うようにしてもよい。この場合、連写された複数枚の静止画であれば動画と同様に扱ってもよいが、単一の静止画であれば顔領域の同一性に係るS406及びS407の処理を省略し、単一画像に対して処理結果が出力されるようにするとよい。
また上述の実施形態では、人物の正面の顔画像の特徴を検出する例を挙げたが、本実施形態の画像処理装置は、例えば道路等を走行している特定の車両の特徴、工場内のコンベアー上を流れている部品や製品等の特徴、動物の特徴等を検出することも可能である。また、これら人物、車両、製品、動物等の特徴を個別に検出する場合だけでなく、それら種類毎に分けてそれぞれ特徴検出を行うようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:CPU、101:ROM、102:RAM、103:ストレージ、104:LANインターフェース、200:コンピュータ、201:ディスプレイ、202:カメラ、301:顔領域検出部、302:顔領域特徴検出部、303:顔特徴決定部

Claims (18)

  1. 所定の指標との一致度に基づいて、入力画像から物体の画像領域を検出する領域検出手段と、
    前記検出された画像領域の特徴を検出する処理を実行する特徴検出手段と、
    前記特徴検出手段における処理、及び、前記検出された画像領域の特徴を出力する特徴出力手段における処理の内の少なくとも一方を、前記一致度に応じて制御する制御手段と、
    を有することを特徴とする画像処理装置。
  2. 前記領域検出手段は、前記入力画像から複数の画像領域を検出し、
    前記特徴検出手段は、前記複数の画像領域毎に特徴を検出し、
    前記制御手段は、前記一致度に基づいて、前記特徴出力手段に、前記複数の画像領域の特徴から、出力する画像領域の特徴を決定させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記領域検出手段は、前記入力画像から複数の画像領域を検出し、
    前記制御手段は、前記一致度が上位の所定数の画像領域のみ、前記特徴検出手段に特徴を検出させ、
    前記特徴出力手段は、前記所定数の前記画像領域の特徴を基に、出力する特徴量を決定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記領域検出手段は、前記入力画像から複数の画像領域を検出し、
    前記制御手段は、前記一致度が所定の閾値より大きい画像領域のみ、前記特徴検出手段に特徴を検出させ、
    前記特徴出力手段は、前記一致度が所定の閾値より大きい前記画像領域の特徴を基に、出力する特徴量を決定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記入力画像は動画の各フレームの画像であり、複数のフレーム間で同一の物体の画像領域を追尾する追尾手段を有し、
    前記特徴検出手段は、前記追尾手段により前記複数のフレームにおいて追尾されている同一の物体の画像領域の特徴を検出し、
    前記特徴出力手段は、前記複数のフレームの前記同一の物体の画像領域の特徴を基に、出力する画像領域の特徴を決定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記領域検出手段は、前記物体の画像領域として人物の顔領域を検出し、
    前記特徴検出手段は、前記顔領域の特徴を検出し、
    前記特徴出力手段は、前記顔領域の特徴を出力することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記特徴検出手段は、前記顔領域の特徴として、顔器官を検出する顔器官検出手段を有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記特徴検出手段は、前記顔領域の特徴として、前記顔領域の人物の年齢、性別、人種の少なくとも一つの人物属性を検出する人物属性検出手段を有することを特徴とする請求項6又は7に記載の画像処理装置。
  9. 前記特徴検出手段は、前記顔領域の特徴として、入力された特定の人物の顔画像との同一性を判定する判定手段を有することを特徴とする請求項6乃至8の何れか1項に記載の画像処理装置。
  10. 前記領域検出手段は、入力画像の中の画像領域と、前記指標としての少なくとも一つのテンプレートとの、比較による一致度を基に、前記画像領域の検出を行うことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
  11. 前記比較に用いられるテンプレートは、一つ以上の第一のテンプレート群に対して所定の変換処理を施して生成した、一つ以上の第二のテンプレート群であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記領域検出手段は、所定の形状及び色の前記テンプレートと、前記入力画像の画像領域の形状及び色との比較による一致度を基に前記画像領域の検出を行うことを特徴とする請求項10又は11に記載の画像処理装置。
  13. 前記領域検出手段は、所定の形状及び画像の平坦度のテンプレートと、前記入力画像の画像領域の形状及び画像の平坦度との比較による一致度を基に前記画像領域の検出を行うことを特徴とする請求項10乃至12の何れか1項に記載の画像処理装置。
  14. 前記領域検出手段は、所定の形状及び画像のエッジ成分のテンプレートと、前記入力画像の画像領域の形状及び画像のエッジ成分との比較による一致度を基に前記画像領域の検出を行うことを特徴とする請求項10乃至13の何れか1項に記載の画像処理装置。
  15. 前記特徴出力手段は、一致度が最も高い画像領域の特徴と、一致度が上位の所定数の各画像領域の特徴を表す値の平均値と、上位の一致度を重みとして各画像領域の特徴を表す値を加重平均した値との、何れか一つを、前記出力する特徴として決定することを特徴とする請求項1乃至14の何れか1項に記載の画像処理装置。
  16. 所定の指標との一致度に基づいて、入力画像から物体の画像領域を検出する領域検出工程と、
    前記検出された画像領域の特徴を検出する処理を実行する特徴検出工程と、
    前記特徴検出工程における処理、及び、前記検出された画像領域の特徴を出力する特徴出力工程における処理の内の少なくとも一方を、前記一致度に応じて制御する制御工程と、
    を有することを特徴とする画像処理装置の画像処理方法。
  17. コンピュータを、請求項1乃至15の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  18. 画像を撮影するカメラと、前記カメラにより撮影された画像を処理する画像処理装置とを有する画像処理システムであって、
    前記カメラは、撮影した画像から、所定の指標との一致度に基づいて、物体の画像領域の検出を行い、
    前記画像処理装置は、前記カメラにより検出された画像領域の特徴を検出する処理、及び、前記検出された画像領域の特徴を出力する処理の内の少なくとも一方を、前記一致度に応じて制御することを特徴とする画像処理システム。
JP2016222144A 2016-11-15 2016-11-15 画像処理装置、画像処理方法、及びプログラム Pending JP2018081402A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016222144A JP2018081402A (ja) 2016-11-15 2016-11-15 画像処理装置、画像処理方法、及びプログラム
US15/809,215 US10733423B2 (en) 2016-11-15 2017-11-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016222144A JP2018081402A (ja) 2016-11-15 2016-11-15 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018081402A true JP2018081402A (ja) 2018-05-24
JP2018081402A5 JP2018081402A5 (ja) 2019-12-26

Family

ID=62107947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016222144A Pending JP2018081402A (ja) 2016-11-15 2016-11-15 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10733423B2 (ja)
JP (1) JP2018081402A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467667B2 (ja) 2020-03-25 2024-04-15 維沃移動通信有限公司 検出結果出力方法、電子機器及び媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198626B2 (en) 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
US10198653B2 (en) * 2017-04-26 2019-02-05 Sensors Incorporated System and method for performing production line product identification
US11908122B2 (en) 2017-04-26 2024-02-20 Sensors Incorporated System and method for performing production line product identification
CN111523569B (zh) * 2018-09-04 2023-08-04 创新先进技术有限公司 一种用户身份确定方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040710A (ja) * 2006-08-04 2008-02-21 Sony Corp 顔検出装置、撮像装置および顔検出方法
WO2012148000A1 (ja) * 2011-04-28 2012-11-01 九州日本電気ソフトウェア株式会社 画像処理システム、人物同定方法、画像処理装置およびその制御方法と制御プログラム
JP2016051482A (ja) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法
JP2016122300A (ja) * 2014-12-24 2016-07-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、およびプログラム
WO2016151802A1 (ja) * 2015-03-25 2016-09-29 株式会社日立国際電気 顔照合システムおよび顔照合方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6904163B1 (en) * 1999-03-19 2005-06-07 Nippon Telegraph And Telephone Corporation Tomographic image reading method, automatic alignment method, apparatus and computer readable medium
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
US7054468B2 (en) * 2001-12-03 2006-05-30 Honda Motor Co., Ltd. Face recognition using kernel fisherfaces
US8086867B2 (en) * 2002-03-26 2011-12-27 Northrop Grumman Systems Corporation Secure identity and privilege system
JP2004252511A (ja) 2003-02-18 2004-09-09 Hitachi Ltd 顔向き推定方法
US7522773B2 (en) * 2005-04-28 2009-04-21 Eastman Kodak Company Using time in recognizing persons in images
US8295568B2 (en) * 2006-06-30 2012-10-23 Fujifilm Corporation Medical image display processing apparatus and medical image display processing program
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8331632B1 (en) * 2007-08-06 2012-12-11 University Of South Florida Indexing face templates using linear models
KR101618735B1 (ko) * 2008-04-02 2016-05-09 구글 인코포레이티드 디지털 영상 컬렉션에 자동 얼굴 인식 기능을 통합하는 방법 및 장치
JP5438419B2 (ja) * 2009-07-29 2014-03-12 富士フイルム株式会社 人物照合装置及び人物照合方法
US8503739B2 (en) * 2009-09-18 2013-08-06 Adobe Systems Incorporated System and method for using contextual features to improve face recognition in digital images
US8200853B2 (en) * 2010-01-14 2012-06-12 Microsoft Corporation Extensions for USB driver interface functions
JP5560976B2 (ja) 2010-07-09 2014-07-30 オムロン株式会社 情報処理装置および方法、並びにプログラム
US9147128B1 (en) * 2013-11-12 2015-09-29 214 Technologies Inc. Machine learning enhanced facial recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040710A (ja) * 2006-08-04 2008-02-21 Sony Corp 顔検出装置、撮像装置および顔検出方法
WO2012148000A1 (ja) * 2011-04-28 2012-11-01 九州日本電気ソフトウェア株式会社 画像処理システム、人物同定方法、画像処理装置およびその制御方法と制御プログラム
JP2016051482A (ja) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法
JP2016122300A (ja) * 2014-12-24 2016-07-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、およびプログラム
WO2016151802A1 (ja) * 2015-03-25 2016-09-29 株式会社日立国際電気 顔照合システムおよび顔照合方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467667B2 (ja) 2020-03-25 2024-04-15 維沃移動通信有限公司 検出結果出力方法、電子機器及び媒体

Also Published As

Publication number Publication date
US20180137344A1 (en) 2018-05-17
US10733423B2 (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
US8903123B2 (en) Image processing device and image processing method for processing an image
US9171230B2 (en) Object detection method, object detection apparatus and image pickup apparatus
JP5567853B2 (ja) 画像認識装置および方法
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
US8983202B2 (en) Smile detection systems and methods
JP5704905B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
WO2019023921A1 (zh) 一种手势识别方法、装置及设备
US10176616B2 (en) Automatic capture and refinement of a digital image of a group of people without user intervention
JP5836095B2 (ja) 画像処理装置、画像処理方法
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US10121089B2 (en) Object information extraction apparatus, object information extraction program, and object information extraction method
JP6157165B2 (ja) 視線検出装置及び撮像装置
WO2018137264A1 (zh) 终端的拍照方法、拍照装置和终端
JP2019057815A (ja) 監視システム
WO2019123554A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
JP2012068948A (ja) 顔属性推定装置およびその方法
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
KR102126370B1 (ko) 동작 인식 장치 및 방법
JP7047848B2 (ja) 顔三次元形状推定装置、顔三次元形状推定方法、及び、顔三次元形状推定プログラム
JP2013029996A (ja) 画像処理装置
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413