JP2015075915A - 顔検出装置、方法およびプログラム - Google Patents

顔検出装置、方法およびプログラム Download PDF

Info

Publication number
JP2015075915A
JP2015075915A JP2013211630A JP2013211630A JP2015075915A JP 2015075915 A JP2015075915 A JP 2015075915A JP 2013211630 A JP2013211630 A JP 2013211630A JP 2013211630 A JP2013211630 A JP 2013211630A JP 2015075915 A JP2015075915 A JP 2015075915A
Authority
JP
Japan
Prior art keywords
face
model
image
initial state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013211630A
Other languages
English (en)
Other versions
JP6304999B2 (ja
Inventor
加藤 隆志
Takashi Kato
隆志 加藤
晋 大須賀
Susumu Osuga
晋 大須賀
小島 真一
Shinichi Kojima
真一 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2013211630A priority Critical patent/JP6304999B2/ja
Priority to EP14187706.8A priority patent/EP2860664B1/en
Priority to US14/509,486 priority patent/US10372972B2/en
Priority to CN201410528224.XA priority patent/CN104573623B/zh
Publication of JP2015075915A publication Critical patent/JP2015075915A/ja
Application granted granted Critical
Publication of JP6304999B2 publication Critical patent/JP6304999B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】顔のモデルの精度を向上させることが可能な顔検出装置、方法およびプログラムを提供する。【解決手段】本発明の一実施形態に係る顔検出装置1は、顔を含む画像を撮像する撮像部2と、画像から顔部品の位置を検出する位置検出部11と、顔部品の位置に基づいてモデルの初期状態を決定する初期状態決定部12と、モデルの初期状態を用いて、画像に基づいて顔のモデルを生成するモデルフィッティング部13と、を備える。初期状態決定部は、位置検出部により取得された目位置および鼻位置を用いて顔位置および顔角度を決定し、顔位置および顔角度に基づいてモデルの初期状態を決定する。【選択図】図3

Description

本発明は、撮像された画像から顔の位置や向きを検出する顔検出装置、方法およびプログラムに関するものである。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに目および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出を行うことによって、脇見運転や居眠り運転を検知し、警報等の所定のアクションを行うことができる。
非特許文献1には、最急降下法等を用いて統計的顔形状モデルを画像中の顔に適合させる、すなわちモデルフィッティングを行うことによって、画像中の顔のモデルを生成する顔検出技術(ASM:Active Shape Model、AAM:Active Appearance Model)が開示されている。この技術を用いて画像中の顔をモデル化することによって、顔の向きや顔部品の状態を推定することが可能になり、またモデルを経時的に更新(トラッキング)することによって顔および顔部品の時間変化をモニタリングすることが可能になる。
Stan Z. Li, Anil K. Jain、「Handbook of Face Recognition」、Springer、2011年、p.124-133
非特許文献1に記載の技術において、モデルフィッティングの精度は、モデルの初期状態、すなわちモデルを最初に画像のどこに配置し、どのような角度、形状に設定するかによって大きな影響を受ける。モデルの初期状態が実際の顔の状態と大きく離れていると、モデルを実際の顔に適合させるためのモデルフィッティングの計算が局所最適解に陥り、モデルが実際の顔からずれて収束してしまう場合がある。これを誤フィッティングといい、誤フィッティングが発生すると顔のモデルの精度が低下する。特に、モデルの目の位置が眼鏡の縁または眉毛の位置に誤って収束してしまうことが起こりやすい。
本発明は、上述の問題点を解決するためになされたものであって、顔のモデルの精度を向上させることが可能な顔検出装置、方法およびプログラムを提供することを目的とする。
本発明の一態様は、撮像部が撮像する顔を含む画像から顔検出を行うための顔検出装置であって、前記画像から前記顔の顔部品の位置を検出する位置検出部と、前記顔部品の前記位置に基づいてモデルの初期状態を決定する初期状態決定部と、前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するモデルフィッティング部と、を備えることを特徴とする。
本発明の一態様は、顔検出方法であって、撮像手段から顔を含む画像を取得するステップと、位置検出手段が、前記画像から前記顔の顔部品の位置を検出するステップと、初期状態決定手段が、前記顔部品の前記位置に基づいてモデルの初期状態を決定するステップと、モデルフィッティング手段が、前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するステップと、を備えることを特徴とする。
本発明の一態様は、撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、コンピュータを、前記画像から前記顔の顔部品の位置を検出する位置検出手段、前記顔部品の前記位置に基づいてモデルの初期状態を決定する初期状態決定手段、および前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するモデルフィッティング手段、として機能させることを特徴とする。
本発明は、顔を含む画像から検出される顔部品の位置を用いて初期状態を決定するため、モデルの初期状態を実際の顔に近い状態にすることが可能である。そして該初期状態を用いて顔のモデルの生成を行うため、モデルの誤フィッティングを抑制することができ、かつ計算を早く収束させて処理時間を短縮することができる。
本発明の一実施形態に係る車両の車室の模式図である。 本発明の一実施形態に係る顔検出装置の概略ブロック図である。 本発明の一実施形態に係る顔検出装置の機能ブロック図である。 モデルおよびテンプレートを説明するための模式図である。 モデルフィッティング前後のモデルの状態を説明するための模式図である。 本発明の一実施形態に係る顔検出処理のフローチャートを示す図である。 本発明の一実施形態に係る目位置検出処理のフローチャートを示す図である。 本発明の一実施形態に係る目位置検出方法を示す模式図である。 本発明の一実施形態に係る初期状態決定処理のフローチャートを示す図である。 顔角度の定義を示す模式図である。 本発明の一実施形態に係る角度算出方法を示す模式図である。 本発明の一実施形態に係るモデルの初期状態設定方法を示す模式図である。
以下、図面を参照して、本発明の実施の形態を説明するが、本発明は本実施形態に限定されるものではない。なお、以下で説明する図面で、同機能を有するものは同一符号を付け、その繰り返しの説明は省略することもある。
図1は本実施形態に係る顔検出装置1を有する車両100の車室を示す模式図である。車両100は、撮像部2を有する顔検出装置1を備える。顔検出装置1は車両100内の任意の場所に設けられてよい。顔検出装置1は単独の装置でもよく、また車両100内の他のシステム(例えば、カーナビゲーションシステム)に組み込まれてもよい。
撮像部2は、車室内において運転席101の前方(すなわち、車両100の進行方向側)に設けられている。撮像部2は、少なくとも運転席101に着座している運転者の顔を含む領域を撮像可能に構成されている。本実施形態において撮像部2はダッシュボード上に設けられているが、運転者の顔が正面方向から撮影可能であればハンドル、天井、またはルームミラーに設けられてもよい。
図2は、本発明の実施形態に係る顔検出装置1の概略ブロック図である。顔検出装置1は、運転者の顔を撮像するための撮像部2を備える。撮像部2はレンズ23を有するカメラ21と制御部22とを備える。カメラ21は通常の可視光線用CCDカメラまたはMOSカメラであってもよく、また、赤外線カメラであってもよい。赤外線カメラは可視光線用CCDカメラ、MOSカメラと比較して、人間の個別の肌の色に左右されない。また、可視光線用CCDカメラ、MOSカメラよりも赤外線カメラの方がシャッター速度を速くすることが可能である。また、カメラ21は、JPEGカメラモジュールであってもよい。JPEGカメラモジュールは撮像部とA/D変換部が一体となったモジュールであり、前記可視光線用CCDカメラ、MOSカメラと比較して軽量でコンパクトなため、車両等への搭載時に搭載位置に関して優位性を有する。
制御部22は、カメラ21の制御を行う。制御部22は、運転席101に着座する運転者の顔にレンズ23をオートフォーカスする制御と、所定の時間ごとに、またはCPU8からの信号に応答してカメラ21のシャッターを開閉する制御を行い、撮像された画像データをフレームとしてRAM6のフレーム・メモリ61に記録する。すなわち、ある時点において撮像された画像をフレームという。
さらに、顔検出装置1は、演算部(CPU)8、格納部9、ROM5、RAM6、出力部7、インターフェース(I/F)4、およびバス41を備える。また、撮像部2のカメラ21がJPEGカメラでない場合、顔検出装置1はA/D変換部3をさらに備える。それぞれはバス41を介して信号を送受信可能に接続される。
演算部8はCPUを含み、プログラムにしたがって、撮像部2からのデジタル変換された画像データを処理し解析するとともに、眼部の検出と瞬目動作の判定等の処理を行う機能を有している。格納部9はRAM、ハードディスクドライブ等から構成され、画像データを保存するとともに、画像データの処理結果、解析結果、および判定結果を格納可能である。
出力部7は、例えば、スピーカ、ディスプレイ、およびランプを含む。出力部7は、本実施形態に係る顔検出処理の結果に基づき、スピーカから注意や警告のための音声を発し、もしくはディスプレイまたはランプから注意や警告のためのメッセージまたは光を出力することができる。また、出力部7は、本実施形態に係る顔検出処理の結果に基づいて、例えば、車両2が有する自動ブレーキシステムに対して、自動ブレーキを作動させるための信号を送出することも可能である。
出力部7に含まれるスピーカとしては車両2に装備されるスピーカを利用することも可能である。また、出力部7に含まれるディスプレイとしては車両2に装備されるカーナビゲーションシステムのディスプレイを利用することも可能である。
A/D変換部3は、撮像部2からの画像信号をデジタル信号の画像データへ変換する機能を有している。画像データは、インターフェース(I/F)4へ出力される。I/F4は制御部22とデータおよびコマンドの送受信を行うとともに、画像データを受信する。ROM5は読み取り専用メモリであって、顔検出装置1を起動させるためのブートプログラムを格納しており、また実行される処理、解析、および判定のためのプログラム(例えば、後述する図6、7、9に示す処理を行うプログラム)を格納するプログラム・メモリ51を備える。プログラムは、ROM5ではなく格納部9に格納されてもよい。
RAM6は、CPU8のキャッシュメモリとして使用されるとともに、CPU8による画像データに対するプログラム実行時のワークエリアとして使用される。RAM6は、画像データをフレーム毎に格納するフレーム・メモリ61と、テンプレートを格納するテンプレート・メモリ62とを備える。
図3は、顔検出装置1の機能ブロック図である。顔検出装置1は、撮像部(撮像手段)2からの画像を用いて顔部品の位置を検出する位置検出部(位置検出手段)11と、位置検出部11により検出された顔部品の位置に基づいてモデルの初期状態を決定する初期状態決定部(初期状態決定手段)12と、初期状態決定部12により決定された初期状態を用いて撮像部2からの画像に基づいて顔のモデルを生成するモデルフィッティング部(モデルフィッティング手段)13と、を備える。さらに、顔検出装置1は、モデルフィッティング部13から出力されるモデルの状態に応じて所定のアクションを行うアクション部(アクション手段)14を備える。
本実施形態に係る顔検出装置1においては、位置検出部11、初期状態決定部12、モデルフィッティング部13、およびアクション部14は、それぞれコンピュータである顔検出装置1を作動させるためのプログラムとして顔検出装置1のROM5または格納部9に記憶されている。すなわち、本実施形態に係る顔検出のためのプログラムは、実行時にCPU8によってROM5または格納部9からRAM6に読み出され、コンピュータである顔検出装置1を、位置検出部11、初期状態決定部12、モデルフィッティング部13、およびアクション部14として機能させる。位置検出部11、初期状態決定部12、モデルフィッティング部13、およびアクション部14の少なくとも一部を、プログラムでなく電気回路として実装してもよい。また、位置検出部11、初期状態決定部12、モデルフィッティング部13、およびアクション部14を、単一の装置でなく複数の装置に別々に実装し、複数の装置が共同して本実施形態に係る顔検出装置1として作動するように構成してもよい。
図4は、本実施形態で用いる顔のモデルおよびテンプレートを説明するための模式図である。図4(a)は、例示的な顔のモデルMを示す模式図である。モデルMは、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図4(a)では目、鼻および口を表す特徴点Pの一部のみを示しているが、モデルMはより多くの数の特徴点Pを含んでもよく、またその他の顔部品、輪郭等を表す特徴点Pを含んでもよい。本実施形態において、モデルフィッティングには、統計的顔形状モデル、すなわち予め作成した平均的な顔の仮モデルを初期状態として用い、該仮モデルの特徴点Pを画像中の顔に適合させることによって、該顔に近似したモデルMを生成することが含まれる。
図4(b)は、顔のモデルMについて作成されるテンプレートTを示す模式図である。モデルMからテンプレートTを作成することによって、テンプレートTを用いてモデルのトラッキングを行うことができる。モデルのトラッキングには、モデルフィッティングにおいてモデルMが生成された後に、周期的に撮像される画像中の顔に合うようにモデルMを継続的に更新することが含まれる。テンプレートTは、画像中の特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、目頭を表す特徴点Pを含む領域、目尻を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、および口角を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点と対応しており、該特徴点の座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。
図5は、モデルフィッティング前後のモデルの状態を説明するための模式図である。図5(a)〜(d)のそれぞれにおいて、運転者の顔を含む画像上にモデルの特徴点Pが丸で示されている。図5(a)は、従来の顔検出処理において、実際の顔の状態から大きく離れて設定されたモデルの初期状態を表している。図5(b)は、図5(a)のモデルの初期状態を用いてモデルフィッティングを行い、計算が収束した後のモデルを表している。図5(b)のモデルでは、目を表す特徴点Pが眼鏡の縁に誤って位置しており、それに伴って口を表す特徴点Pも実際の口からずれている。このように、モデルの初期状態が実際の顔の状態から大きく離れている場合には、誤フィッティングが起こりやすい。
一方、本実施形態に係る顔検出処理では、位置検出部11が顔部品の位置、具体的には目および鼻の位置を検出し、初期状態決定部12が該位置を用いてモデルの初期状態を決定することによって、モデルの初期状態を実際の顔の状態に近付けることを可能にしている。その結果、モデルフィッティング部13は、実際の顔の状態に近い初期状態を用いてモデルフィッティングを実行するため、誤フィッティングが起こりづらく、計算がより早く収束する。この図5(c)は、本実施形態に係る顔検出処理において、実際の顔の状態に近く設定されたモデルの初期位置を表している。図5(d)は、図5(c)のモデルの初期状態を用いてモデルフィッティングを行い、計算が収束した後のモデルを表している。図5(d)では、各特徴点Pが実際の顔部品の近くに位置している。このように、本実施形態に係る顔検出処理では、モデルの初期状態を実際の顔の状態に近く設定することができるため、誤フィッティングを抑制してモデルフィッティングの精度を向上させ、かつ計算の収束に掛かる処理時間を短縮することができる。
図6は、本実施形態に係る顔検出処理のフローチャートを示す図である。顔検出装置1は、所定の開始条件(例えば、運転者の着座、運転者によるイグニッション・キーまたは特定のスイッチのオン等)が満たされたことを検知すると、図6のフローチャートの顔検出処理の実行を開始する。
顔検出装置1は、撮像部2からRAM6のフレーム・メモリ61から処理対象のフレームの画像と処理対象のフレームの1つ前のフレームの画像とを取得する(ステップS1)。ステップS1で取得する画像は、ステップS1の実行時にCPU8から撮像部2に信号を送ることにより撮像するものでもよく、または撮像部2が自発的に所定周期で撮像するものでもよい。いずれの場合においても、撮像部2により撮像される画像はRAM6のフレーム・メモリ61に格納され、ステップS1においてRAM6のフレーム・メモリ61から読み出される。RAM6のフレーム・メモリ61には、少なくとも処理対象のフレームおよび処理対象のフレームの1つ前のフレームの画像が保持される。なお、顔検出処理の開始時には、処理対象のフレームの1つ前のフレームの画像はまだRAM6のフレーム・メモリ61に格納されていないため、顔検出装置1は2つ目のフレームの画像が撮像されるまで待ち、2つ目のフレームを処理対象のフレームとして次のステップS2に進む。
顔検出装置1は、撮像部2により撮像される処理対象のフレームの画像に基づいて、位置検出部11を用いて鼻位置の検出を行い、該鼻位置をRAM6に格納する(ステップS2)。鼻位置は、例えば鼻の下端、鼻頭等の鼻の特定の部位の座標である。鼻位置の検出には、ニューラルネットワーク法、AdaBoost法等の、画像から鼻位置を特定可能な任意の顔部品検出方法を用いてよい。
顔検出装置1は、ステップS1において取得される処理対象のフレームの画像に基づいて、位置検出部11を用いて目位置検出処理を行い、該画像中の目位置を検出する(ステップS3)。目位置検出処理(ステップS3)において処理対象のフレームで目位置が検出されなかった場合、すなわち瞬きが検出されない場合には(ステップS4のNO)、顔検出装置1は、次のフレームを処理対象のフレームとして画像の取得(ステップS1)から目位置検出処理(ステップS3)を行う。
目位置検出処理(ステップS3)において処理対象のフレームで目位置が検出される場合には(ステップS4のYES)、顔検出装置1は、ステップS2およびステップS3において検出される目位置および鼻位置に基づいて、初期状態決定部12を用いて初期状態決定処理を行い、モデルの初期状態を決定する(ステップS5)。
そして、モデルフィッティング部13は、ステップS5で決定されるモデルの初期状態を用いて、ステップS1で取得される画像にモデルを適合させるようにモデルフィッティングを行う(ステップS6)。本実施形態におけるモデルフィッティングは特定の方法に限定されるものではなく、AAM(Active Appearance Model)法、ASM(Active Shape Model)法等の、任意のモデルフィッティング法を用いてよい。モデルフィッティング部13は、モデルフィッティングにより生成されるモデルをRAM6に格納する。
顔検出装置1は、ステップS6で生成されるモデルに基づいて、アクション部14を用いて所定アクションの実行を行う(ステップS7)。例えば、アクション部14は、ステップS6で生成されるモデルが正面を向いていない場合に運転者が脇見状態であることを判定し、警告のために出力部7から音声の出力、もしくはメッセージまたは光の出力を行ってもよい。また、アクション部14は、ステップS6で生成されるモデルが所定の時間以上閉眼状態にある場合に運転者が居眠り状態であることを判定し、警告のために出力部7から音声の出力、もしくはメッセージまたは光の出力を行ってもよい。また、アクション部14は、脇見状態または居眠り状態の判定に基づいて、自動ブレーキシステムの作動を行ってもよい。
図6のフローチャートには示されていないが、本実施形態に係る顔検出処理で生成されるモデルを用いて、モデルのトラッキングを行うことができる。例えば、顔検出装置1は、ステップS1で取得される画像およびステップS6で生成されるモデルから、図4(b)に示すテンプレートをRAM6のテンプレート・メモリ62に保存する。その後、顔検出装置1は、RAM6のフレーム・メモリ61から次のフレームの画像を読み出し、RAM6のテンプレート・メモリ62からテンプレートを読み出し、テンプレートが有する各領域を画像上で走査して各位置における該領域と該画像との相関を求める。そして、顔検出装置1は、最も相関が高い位置を用いてテンプレートが有する各領域の位置を更新し、それにより更新されたテンプレートをRAM6のテンプレート・メモリ62に保存する。その後、顔検出装置1は、更新されたテンプレートに基づいて、テンプレートが有する各領域に紐付けられたモデルの特徴点の座標を更新し、それにより更新されたモデルをRAM6に格納する。その結果、モデルの各特徴点の座標が次のフレームの画像に合うように更新(トラッキング)される。
図7は、本実施形態に係る目位置検出処理(ステップS3)の詳細なフローチャートを示す図である。位置検出部11は、ステップ2で検出された鼻位置を用いて、ステップS1で取得された処理対象のフレームおよび1つ前のフレームの画像内の探索領域の決定を行う(ステップS31)。具体的には、位置検出部11は、RAM6からステップ2で検出された鼻位置を取得し、該鼻位置の周辺領域を探索領域として決定する。探索領域は、例えば鼻位置を基準に上下左右にそれぞれ所定の距離離れた地点を含む矩形領域である。探索領域は、その中に目が位置する蓋然性が十分に高い形状および大きさを有するものであり、その形状および大きさは統計的に決定可能である。後述の差分画像による目位置決定をここで決定した探索領域に限定して行うことによって、処理負荷を低減することができるとともに、目以外の顔部品によるノイズを低減して目位置の検出精度を向上させることができる。
また、位置検出部11は、鼻位置に加えて、ニューラルネットワーク法、AdaBoost法等の任意の顔部品検出方法を用いて目位置を検出し、目位置および鼻位置の周辺領域を探索領域として決定してもよい。ここでの目位置は探索領域を決定するために使用されるのみなので、目位置の検出方法は精度が高いものでなく、処理負荷が小さいものが望ましい。この場合の探索領域は、例えば、目位置および鼻位置のそれぞれを基準に、上下左右にそれぞれ所定の距離離れた地点を含む矩形領域である。位置検出部11は、このように鼻位置に加えて目位置を探索領域の決定に用いることによって、鼻位置のみを用いて探索領域を決定する場合よりも狭い探索領域を利用することができる。そのため、差分画像による目位置決定の処理負荷をさらに低減し、目以外の顔部品によるノイズを低減することができる。また、位置検出部11は、探索領域を鼻位置の周辺領域に限定せず、顔全体を探索領域としてもよい。
その後、位置検出部11は、ステップS1で取得された処理対象のフレームおよび1つ前のフレームの画像を用いて、ステップS31で決定された探索領域の差分画像を作成する(ステップS32)。具体的には、位置検出部11は、1つ前のフレームの画像中の探索領域と、処理対象のフレームの画像中の探索領域との間で、輝度成分の差分を算出する。これによって、例えば図8に示される探索領域の差分画像を作成する。
図8は、本実施形態に係る目位置検出方法を示す模式図である。図8(a)は、運転者が閉眼状態にある場合における画像中の探索領域Aを表している。図8(b)は、運転者が開眼状態にある場合における画像中の探索領域Aを表している。図8(c)は、図8(b)の探索領域Aの輝度成分から図8(a)の探索領域Aの輝度成分を減じて作成される差分画像を表している。差分画像においては、輝度が低下した領域(黒領域B)と、輝度が上昇した領域(白領域C)と、輝度がほぼ変化しない領域とが表れる。瞬目によって閉眼状態から開眼状態に遷移すると、差分画像中に瞼に対応する位置に大きな黒領域Bが表れる。そのため、位置検出部11は、ステップS32において作成された差分画像中の所定の面積より大きい黒領域Bを目位置として決定し、該目位置をRAM6に格納する(ステップS33)。目位置は、例えば黒領域Bの重心の座標である。また、位置検出部11は、差分画像中に所定の面積より大きい黒領域Bがない場合には、そのフレームでは瞬目は行われていないと判定し、目位置を検出しない。目位置検出のために開眼状態から閉眼状態への遷移を用いてもよく、その場合には所定の面積より大きい白領域Cを目位置として決定することができる。
なお、図8(c)は模式的な差分画像を表しているが、実際の差分画像には目以外の部分にも黒領域Bが複数表れることがある。その場合には、位置検出部11は最も大きい面積を有する黒領域を目と推定する。さらに、推定された左右の目の大きさの違いまたは間隔が異常である、例えば所定の許容範囲から外れている場合には、位置検出部11は次に大きい面積を有する黒領域を目と推定する。
本実施形態に係る目位置検出処理(ステップS3)では、瞬目に起因する目の変化を差分画像によって検出している。このため、眉毛または眼鏡の縁を目位置として誤検出することを抑制し、高精度に目位置を推定することができる。本実施形態で用いる目位置の検出方法はこれに限られるものではなく、検出精度と処理負荷とを考慮して画像から鼻位置を特定可能な任意の顔部品検出方法を用いてもよい。
フレームの取得周期は人間の瞬目を検出可能な長さ、すなわち1つ前のフレームと処理対象のフレームとの間で閉眼状態と開眼状態とが切り替わる程度の長さである。フレームの取得周期の具体的な数値は統計または実験に基づいて定めることが可能であり、また顔検出装置1が運転手の瞬目頻度に基づいてフレームの取得周期を決定してもよい。
図9は、本実施形態に係る初期状態決定処理(ステップS5)の詳細なフローチャートを示す図である。初期状態決定処理では、初期状態決定部12は、RAM6からステップS2およびステップS3で検出された目位置および鼻位置を取得し、該目位置および該鼻位置に基づいて顔位置を決定する(ステップS51)。顔位置には、処理対象のフレームの画像中における平面方向の顔の位置および奥行方向の顔の位置が含まれる。初期状態決定部12は、ステップS2で検出された鼻位置を、顔の平面方向の位置として決定する。顔の平面方向の位置は、モデルを画像中の顔の位置に移動するために用いられる。また、初期状態決定部12は、ステップS3で検出された目位置から左右の目間の距離を算出し、該目間の距離と予め統計的に取得された標準的な顔における目間の平均距離との比を算出することにより、顔の奥行方向の位置を決定する。顔の奥行方向の位置は画像中の顔の大きさに対応するため、モデルを拡大または縮小するために用いられる。顔位置の決定方法はここに示した具体的な方法に限定されるものではなく、画像または該画像から検出した目位置、鼻位置を用いて、該画像中の顔位置を決定可能な任意の方法でよい。
次に、初期状態決定部12は、RAM6からステップS2およびステップS3で検出された目位置および鼻位置を取得し、該目位置および該鼻位置に基づいて顔角度を決定する(ステップS52)。図10は、顔角度の定義を示す模式図である。図10は、画像中の顔にx軸、y軸、z軸を重ねて示している。x軸、y軸、z軸の位置はステップS51で決定された顔位置に基づいて決定可能である。具体的には、x軸およびy軸は画像中の顔の重心を通り、かつ互いに垂直な該画像を含む平面上の直線であり、z軸は該重心を通る該画像の法線である。顔角度は、x軸に関する回転角度を表すピッチ角度θx、y軸に関する回転角度を表すヨー角度θy、z軸に関する回転角度を表すおよびロール角度θzを含む。
図11(a)はピッチ角度θxの算出方法を示す模式図である。左右の目位置E1、E2の間の距離をdwとし、鼻位置Nと左右の目位置E1、E2を結ぶ直線との距離をdhとする。また、予め統計的に取得された標準的な顔におけるdwおよびdhを、それぞれdw0、dh0とする。R0=dw0/dh0とすると、ピッチ角度θxは以下の式(1)で表される。
図11(b)はヨー角度θyの算出方法を示す模式図である。左右の目位置E1、E2を結ぶ直線に鼻位置Nから垂線を引き、該直線と該垂線との交点から左の目位置E1との距離をdw1とし、右の目位置E2との距離をdw2とする。このとき、ヨー角度θyは以下の式(2)で表される。
図11(c)はロール角度θzの算出方法を示す模式図である。右の目位置E2のx座標から左の目位置E1のx座標を減じた値をdxとし、右の目位置E2のy座標から左の目位置E1のy座標を減じた値をdyとする。このとき、ロール角度θzは以下の式(3)で表される。
初期状態決定部12は、以上の方法により算出したピッチ角度θx、ヨー角度θy、ロール角度θzを含む顔角度をRAM6に格納する。顔角度の決定方法はここに示した具体的な方法に限定されるものではなく、画像または該画像から検出した目位置、鼻位置を用いて、該画像中の顔角度を決定可能な任意の方法でよい。
初期状態決定部12は、RAM6からステップS51およびステップS52で決定された顔位置および顔角度を取得し、該顔位置および該顔角度に基づいてモデルの初期状態を決定する(ステップS53)。モデルの初期状態の決定には、モデルフィッティングを実行する前の時点におけるモデルの位置、角度等の決定が含まれる。
図12は、顔位置および顔角度を用いてモデル初期状態を決定する方法を表す模式図である。初期状態決定部12は、RAM6からステップS51およびステップS52で決定された顔位置および顔角度を取得するとともに、RAM6から複数の特徴点Pを含む統計的顔形状モデル(仮モデルM’)を取得する。そして、初期状態決定部12は、図12(a)に示すように、仮モデルM’を顔角度、すなわちピッチ角度θx、ヨー角度θy、ロール角度θzを用いて回転させ、仮モデルM’を顔の平面方向の位置を用いて画像の平面方向に移動させ、さらに仮モデルM’を顔の奥行方向の位置を用いて拡大または縮小させる。初期状態決定部12は、このように変形された後のモデルMを、モデルの初期状態として決定し、RAM6に格納する。図12(b)は、モデルの初期状態における特徴点Pを顔に重ねた状態を表している。本実施形態に係るモデルの初期状態は、画像に基づいて取得された顔位置および顔角度によって実際の顔の状態に近付けられているため、特徴点Pは実際の顔部品の近くに位置している。そのため、このモデルの初期状態を用いて行われるモデルフィッティング(ステップS6)において、計算が早く収束し、かつ誤フィッティングが抑制される。
本発明の本質は、画像から顔部品の検出を行い、該顔部品の位置を用いてモデルの初期状態を決定し、該モデルの初期状態を用いてモデルの生成を行うことである。本実施形態では顔部品として目および鼻を用いているが、画像から位置が特定できれば任意の顔部品を用いてよい。例えば、眉毛、口、輪郭等を用いてもよく、複数の顔部品を組み合わせて用いてもよい。
本実施形態では平面方向の位置、奥行方向の位置を含む顔位置、およびピッチ角度θx、ヨー角度θy、ロール角度θzを含む顔角度を用いてモデルの初期状態の決定を行っているが、必ずしもそれらの全てを用いなくてもよく、それらの一部を用いてもよい。
本実施形態に係る顔検出処理では、画像から検出される顔部品の位置に基づいてモデルの初期状態を決定し、該モデルの初期状態を用いてモデルの生成を行うため、モデルの初期状態が実際の顔の状態に近い。そのため、誤フィッティングを抑制してモデルの精度を向上させることができ、さらに、モデルの生成のための計算の収束が早く、計算負荷を低減することができる。しかも、視線検出機(アイトラッカー)のような追加の機構を必要とせずに、1つの撮像部からの画像を用いて顔部品の位置の検出とモデルの生成との両方を行っているため、モデルの精度を向上させるために掛かるコストの増加を抑制することができる。
また、本実施形態に係る顔検出処理は、フレーム間の差分画像を作成することによって瞬目に起因する目の変化を検出することにより目位置の検出を行っているため、眉毛または眼鏡の縁を目位置として誤検出することを抑制し、高精度に目位置を推定することができる。このとき、画像から検出される鼻位置に基づいて差分画像作成時の画像の探索領域を限定しているため、処理負荷を低減し、さらに検出精度を向上させることができる。このように本実施形態では高精度に位置が推定される目位置を用いることによって、モデルの初期状態を正確に決定し、さらに高いモデルの精度を実現している。
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラム(例えば、図6、7、9に示す処理を行うプログラム)を記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコンピュータ中に読み出し、コンピュータにおいて実行する処理方法も前述の実施形態の範疇に含まれる。すなわち、コンピュータ読み取り可能な記憶媒体も本発明に係る実施形態の範囲に含まれる。また、前述のプログラムが記憶された記憶媒体はもちろん、そのプログラム自体も前述の実施形態に含まれる。かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。
前述した実施形態は、さらに以下の付記を含む。
(付記1)
撮像手段から顔を含む画像を取得するステップと、
位置検出手段が、前記画像から前記顔の顔部品の位置を検出するステップと、
初期状態決定手段が、前記顔部品の前記位置に基づいてモデルの初期状態を決定するステップと、
モデルフィッティング手段が、前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するステップと、
を備えることを特徴とする顔検出方法。
(付記2)
前記顔部品は目を含み、
前記位置検出手段は、あるフレームの前記撮像手段からの画像と1つ前のフレームの前記撮像手段からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
ことを特徴とする付記1に記載の顔検出方法。
(付記3)
前記顔部品は鼻をさらに含み、
前記位置検出手段は、前記位置検出手段により検出される前記鼻の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
ことを特徴とする付記2に記載の顔検出方法。
(付記4)
前記初期状態決定手段は、前記顔部品の前記位置から前記顔の角度を算出し、前記顔の前記角度に基づいて前記モデルの初期状態を決定する
ことを特徴とする付記1に記載の顔検出方法。
(付記5)
撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、
コンピュータを、
前記画像から前記顔の顔部品の位置を検出する位置検出手段、
前記顔部品の前記位置に基づいてモデルの初期状態を決定する初期状態決定手段、および
前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するモデルフィッティング手段、
として機能させることを特徴とするプログラム。
(付記6)
前記顔部品は目を含み、
前記位置検出手段は、あるフレームの前記撮像手段からの画像と1つ前のフレームの前記撮像手段からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
ことを特徴とする付記5に記載のプログラム。
(付記7)
前記顔部品は鼻をさらに含み、
前記位置検出手段は、前記位置検出手段により検出される前記鼻の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
ことを特徴とする付記6に記載のプログラム。
(付記8)
前記初期状態決定手段は、前記顔部品の前記位置から前記顔の角度を算出し、前記顔の前記角度に基づいて前記モデルの初期状態を決定する
ことを特徴とする付記5に記載のプログラム。
(付記9)
付記5から8のいずれか一項に記載のプログラムを記憶したコンピュータ読み取り可能記憶媒体。
1 顔検出装置
2 撮像部
3 A/D変換部
4 インターフェース(I/F)
5 ROM
6 RAM
7 出力部
8 演算部(CPU)
9 格納部
11 位置検出部
12 初期状態決定部
13 モデルフィッティング部
14 アクション部
100 車両
101 運転席

Claims (6)

  1. 撮像部が撮像する顔を含む画像から顔検出を行うための顔検出装置であって、
    前記画像から前記顔の顔部品の位置を検出する位置検出部と、
    前記顔部品の前記位置に基づいてモデルの初期状態を決定する初期状態決定部と、
    前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するモデルフィッティング部と、
    を備えることを特徴とする顔検出装置。
  2. 前記顔部品は目を含み、
    前記位置検出部は、あるフレームの前記撮像部からの画像と1つ前のフレームの前記撮像部からの画像との間で差分画像を作成し、前記差分画像に基づいて前記目の位置を検出する
    ことを特徴とする請求項1に記載の顔検出装置。
  3. 前記顔部品は鼻をさらに含み、
    前記位置検出部は、前記位置検出部により検出される前記鼻の位置に基づいて探索領域を決定し、前記探索領域内で前記差分画像を作成する
    ことを特徴とする請求項2に記載の顔検出装置。
  4. 前記初期状態決定部は、前記顔部品の前記位置から前記顔の角度を算出し、前記顔の前記角度に基づいて前記モデルの初期状態を決定する
    ことを特徴とする請求項1に記載の顔検出装置。
  5. 撮像手段から顔を含む画像を取得するステップと、
    位置検出手段が、前記画像から前記顔の顔部品の位置を検出するステップと、
    初期状態決定手段が、前記顔部品の前記位置に基づいてモデルの初期状態を決定するステップと、
    モデルフィッティング手段が、前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するステップと、
    を備えることを特徴とする顔検出方法。
  6. 撮像手段が撮像する顔を含む画像から顔検出を行うためのプログラムであって、
    コンピュータを、
    前記画像から前記顔の顔部品の位置を検出する位置検出手段、
    前記顔部品の前記位置に基づいてモデルの初期状態を決定する初期状態決定手段、および
    前記モデルの初期状態を用いて、前記画像に基づいて前記顔のモデルを生成するモデルフィッティング手段、
    として機能させることを特徴とするプログラム。
JP2013211630A 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム Active JP6304999B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013211630A JP6304999B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム
EP14187706.8A EP2860664B1 (en) 2013-10-09 2014-10-06 Face detection apparatus
US14/509,486 US10372972B2 (en) 2013-10-09 2014-10-08 Face detection apparatus, face detection method, and program
CN201410528224.XA CN104573623B (zh) 2013-10-09 2014-10-09 人脸检测装置、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013211630A JP6304999B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015075915A true JP2015075915A (ja) 2015-04-20
JP6304999B2 JP6304999B2 (ja) 2018-04-04

Family

ID=51655654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013211630A Active JP6304999B2 (ja) 2013-10-09 2013-10-09 顔検出装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US10372972B2 (ja)
EP (1) EP2860664B1 (ja)
JP (1) JP6304999B2 (ja)
CN (1) CN104573623B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020525953A (ja) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器
WO2021039403A1 (ja) * 2019-08-30 2021-03-04 オムロン株式会社 顔向き推定装置及び方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105072327B (zh) * 2015-07-15 2018-05-25 广东欧珀移动通信有限公司 一种防闭眼的人像拍摄处理的方法和装置
KR102463169B1 (ko) * 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
US9852324B2 (en) * 2015-12-08 2017-12-26 Intel Corporation Infrared image based facial analysis
CN107103271A (zh) * 2016-02-23 2017-08-29 芋头科技(杭州)有限公司 一种人脸检测方法
KR102176902B1 (ko) * 2016-12-07 2020-11-10 교세라 가부시키가이샤 화상 투영 장치, 화상 표시 장치 및 이동체
WO2018163404A1 (ja) * 2017-03-10 2018-09-13 三菱電機株式会社 顔向き推定装置および顔向き推定方法
CN109118233B (zh) * 2017-06-23 2022-04-19 百度在线网络技术(北京)有限公司 基于人脸识别的认证方法和装置
CN107578000B (zh) * 2017-08-25 2023-10-31 百度在线网络技术(北京)有限公司 用于处理图像的方法及装置
CN108229376B (zh) * 2017-12-29 2022-06-03 百度在线网络技术(北京)有限公司 用于检测眨眼的方法及装置
EP3540633B1 (en) * 2018-03-16 2020-09-23 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
CN108860156A (zh) * 2018-06-28 2018-11-23 信利光电股份有限公司 一种驾驶员监控方法、装置、设备及计算机可读存储介质
CN109086727B (zh) * 2018-08-10 2021-04-30 北京奇艺世纪科技有限公司 一种确定人体头部的运动角度的方法、装置及电子设备
CN110969061A (zh) * 2018-09-29 2020-04-07 北京市商汤科技开发有限公司 神经网络训练、视线检测方法和装置及电子设备
CN109635757B (zh) * 2018-12-18 2019-10-25 北京字节跳动网络技术有限公司 活体检测方法、装置、电子设备及存储介质
CN110941984B (zh) * 2019-09-25 2022-04-05 西南科技大学 基于深度学习的自习室座位状态检测方法与座位管理***
CN110909596B (zh) * 2019-10-14 2022-07-05 广州视源电子科技股份有限公司 侧脸识别方法、装置、设备以及存储介质
CN112991147B (zh) 2019-12-18 2023-10-27 抖音视界有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
DE102020200221A1 (de) * 2020-01-09 2021-07-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Schätzen einer Augenposition eines Fahrers eines Fahrzeugs
US11367306B1 (en) * 2020-06-23 2022-06-21 Amazon Technologies, Inc. System to determine user engagement with autonomous mobile device
TWI741892B (zh) * 2020-12-01 2021-10-01 咸瑞科技股份有限公司 車內駕駛監測系統

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087346A (ja) * 2005-09-26 2007-04-05 Canon Inc 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2007299070A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
JP2008192100A (ja) * 2007-02-08 2008-08-21 Aisin Seiki Co Ltd 瞼検出装置及びプログラム
JP2008234208A (ja) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc 顔部位検出装置及びプログラム
JP2010134866A (ja) * 2008-12-08 2010-06-17 Toyota Motor Corp 顔部位検出装置
JP2010250420A (ja) * 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
JP2012088776A (ja) * 2010-10-15 2012-05-10 Nintendo Co Ltd 画像処理プログラム、装置、システムおよび方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6437808B1 (en) * 1999-02-02 2002-08-20 Texas Instruments Incorporated Apparatus and method for transmitting graphical representations
WO2000055811A1 (fr) * 1999-03-12 2000-09-21 Sony Corporation Processeur de donnees, procede de traitement de donnees, et support d'enregistrement
US6937745B2 (en) * 2001-12-31 2005-08-30 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
WO2004055735A1 (ja) * 2002-12-16 2004-07-01 Canon Kabushiki Kaisha パターン識別方法、その装置及びそのプログラム
WO2005008593A1 (ja) * 2003-07-18 2005-01-27 Canon Kabushiki Kaisha 画像処理装置、撮像装置、画像処理方法
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
RU2358319C2 (ru) 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
EP1811456B1 (en) 2004-11-12 2011-09-28 Omron Corporation Face feature point detector and feature point detector
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
JP4568223B2 (ja) * 2005-12-21 2010-10-27 株式会社デンソー 推定装置
KR101240261B1 (ko) * 2006-02-07 2013-03-07 엘지전자 주식회사 이동통신 단말기의 영상 통화 장치 및 방법
CN101952853B (zh) * 2008-01-16 2013-05-15 旭化成株式会社 脸姿势推定装置以及脸姿势推定方法
WO2009094661A1 (en) * 2008-01-24 2009-07-30 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for swapping faces in images
JP5055166B2 (ja) 2008-02-29 2012-10-24 キヤノン株式会社 眼の開閉度判定装置、方法及びプログラム、撮像装置
JP4577410B2 (ja) * 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN101339606B (zh) * 2008-08-14 2011-10-12 北京中星微电子有限公司 一种人脸关键器官外轮廓特征点定位与跟踪的方法及装置
JP4788786B2 (ja) * 2009-02-09 2011-10-05 株式会社デンソー 眠気検出装置,プログラムおよび眠気検出方法
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
JP5273030B2 (ja) 2009-12-18 2013-08-28 株式会社デンソー 顔特徴点検出装置および眠気検出装置
KR101694820B1 (ko) * 2010-05-07 2017-01-23 삼성전자주식회사 사용자 위치 인식 방법 및 장치
CN101853523B (zh) * 2010-05-18 2012-01-04 南京大学 一种采用草图创建三维人脸模型的方法
US9196074B1 (en) * 2010-10-29 2015-11-24 Lucasfilm Entertainment Company Ltd. Refining facial animation models
US9323980B2 (en) * 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
EP2538388B1 (en) * 2011-06-20 2015-04-01 Alcatel Lucent Method and arrangement for image model construction
US9111130B2 (en) * 2011-07-08 2015-08-18 Microsoft Technology Licensing, Llc Facilitating face detection with user input
CN102985302A (zh) * 2011-07-11 2013-03-20 丰田自动车株式会社 车辆的紧急避险装置
TWI584222B (zh) * 2012-02-17 2017-05-21 鈺立微電子股份有限公司 立體影像處理器、立體影像互動系統、與相關立體影像顯示方法
US9437011B2 (en) * 2012-06-11 2016-09-06 Samsung Electronics Co., Ltd. Method and apparatus for estimating a pose of a head for a person
US20140009465A1 (en) * 2012-07-05 2014-01-09 Samsung Electronics Co., Ltd. Method and apparatus for modeling three-dimensional (3d) face, and method and apparatus for tracking face
US8924735B2 (en) * 2013-02-15 2014-12-30 Microsoft Corporation Managed biometric identity
US8983152B2 (en) * 2013-05-14 2015-03-17 Google Inc. Image masks for face-related selection and processing in images
WO2015045713A1 (ja) * 2013-09-24 2015-04-02 シャープ株式会社 画像処理装置及び画像表示装置
US9552513B2 (en) * 2014-06-02 2017-01-24 Amrita Vishwa Vidyapeetham Systems and methods for yaw estimation
US9773179B2 (en) * 2015-01-30 2017-09-26 GM Global Technology Operations LLC Vehicle operator monitoring system and method
CN106991367B (zh) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 确定人脸转动角度的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087346A (ja) * 2005-09-26 2007-04-05 Canon Inc 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2007299070A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
JP2008192100A (ja) * 2007-02-08 2008-08-21 Aisin Seiki Co Ltd 瞼検出装置及びプログラム
JP2008234208A (ja) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc 顔部位検出装置及びプログラム
JP2010134866A (ja) * 2008-12-08 2010-06-17 Toyota Motor Corp 顔部位検出装置
JP2010250420A (ja) * 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
JP2012088776A (ja) * 2010-10-15 2012-05-10 Nintendo Co Ltd 画像処理プログラム、装置、システムおよび方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020525953A (ja) * 2018-01-19 2020-08-27 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器
US11113560B2 (en) 2018-01-19 2021-09-07 Beijing Sensetime Technology Development Co., Ltd. Body contour key point detection methods, apparatuses, and devices
WO2021039403A1 (ja) * 2019-08-30 2021-03-04 オムロン株式会社 顔向き推定装置及び方法
JP2021039420A (ja) * 2019-08-30 2021-03-11 オムロン株式会社 顔向き推定装置及び方法

Also Published As

Publication number Publication date
JP6304999B2 (ja) 2018-04-04
CN104573623A (zh) 2015-04-29
US20150098633A1 (en) 2015-04-09
EP2860664B1 (en) 2019-01-02
US10372972B2 (en) 2019-08-06
EP2860664A1 (en) 2015-04-15
CN104573623B (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
JP6304999B2 (ja) 顔検出装置、方法およびプログラム
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
JP5109922B2 (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
AU2015276536B2 (en) Device, method, and computer program for detecting momentary sleep
US8620066B2 (en) Three-dimensional object determining apparatus, method, and computer program product
JP2007265367A (ja) 視線検出方法および装置ならびにプログラム
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
JP2014204375A (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
CN108701345B (zh) 搭乘者检测装置、搭乘者检测***及搭乘者检测方法
JP4992823B2 (ja) 顔検出装置及び顔検出方法
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP2010193406A (ja) 画像入力装置及び被写体検出方法、プログラム
US20230386256A1 (en) Techniques for detecting a three-dimensional face in facial recognition
KR101360063B1 (ko) 제스처 인식 방법 및 시스템
KR101564760B1 (ko) 범죄 사건의 예측을 위한 영상 처리 장치 및 방법
JP2013190949A (ja) 歩行者検出装置及びプログラム
WO2024095627A1 (ja) 認証装置、プログラム、及び認証方法
Mahalakshmi et al. Research Analysis of Dynamic Human Object Tracking Algorithm with Various Tracking Parameters under Complex Environment
JP2020095663A (ja) 認識処理装置、認識処理方法及びプログラム
JP2009037560A (ja) 顔画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R150 Certificate of patent or registration of utility model

Ref document number: 6304999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250