JP2009276849A - 運転者撮像装置および運転者撮像方法 - Google Patents

運転者撮像装置および運転者撮像方法 Download PDF

Info

Publication number
JP2009276849A
JP2009276849A JP2008125057A JP2008125057A JP2009276849A JP 2009276849 A JP2009276849 A JP 2009276849A JP 2008125057 A JP2008125057 A JP 2008125057A JP 2008125057 A JP2008125057 A JP 2008125057A JP 2009276849 A JP2009276849 A JP 2009276849A
Authority
JP
Japan
Prior art keywords
driver
captured image
captured
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008125057A
Other languages
English (en)
Other versions
JP4888838B2 (ja
Inventor
Junji Kawakubo
淳史 川久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2008125057A priority Critical patent/JP4888838B2/ja
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to CN2009801005245A priority patent/CN101951828B/zh
Priority to EP20090746124 priority patent/EP2288287B1/en
Priority to RU2010146086/28A priority patent/RU2453884C1/ru
Priority to US12/681,009 priority patent/US8724858B2/en
Priority to AT09746124T priority patent/ATE554697T1/de
Priority to PCT/IB2009/000483 priority patent/WO2009138828A1/en
Publication of JP2009276849A publication Critical patent/JP2009276849A/ja
Application granted granted Critical
Publication of JP4888838B2 publication Critical patent/JP4888838B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Emergency Alarm Devices (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Abstract

【課題】運転者の状態を判定するために適切な画像を撮像して、当該運転者の状態を判定することができる運転者撮像装置および運転者撮像方法を提供する。
【解決手段】撮像手段は、車両の運転者の顔を撮像する。第1撮像画像処理手段は、撮像手段が撮像した第1撮像画像を用いて、当該第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行う。第2撮像画像処理手段は、第1撮像画像より露光量が多い撮像条件で撮像手段が撮像した第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の顔の一部分に対する画像処理を行う。
【選択図】図7

Description

本発明は、運転者撮像装置および運転者撮像方法に関し、より特定的には、車両に乗車する運転者の前方から当該運転者を撮像する運転者撮像装置および運転者撮像方法に関する。
従来、車両を運転する運転者を撮像し、撮像された画像を用いて当該運転者の状態を監視するシステムが開発されている。例えば、運転者の前方から撮像するカメラが車両のステアリングホイール付近に設置され、当該カメラが撮像した画像を用いて運転者の状態が解析される。
例えば、運転者を撮像した撮像画像を用いて、運転者の眼の開閉度や視線方向を判定する運転者状態検出装置が開示されている(例えば、特許文献1参照)。上記特許文献1で開示された運転者状態検出装置は、上記撮像画像から運転者の眼の座標値を検出する。そして、当該運転者状態検出装置は、運転者の眼の滞留状況に応じて、運転者の視線方向の判定または運転者の眼の開閉度の判定を行って、運転者の脇見判定または居眠り判定を行う。
特開2004−192345号公報
しかしながら、車両に乗車する運転者の前方から当該運転者を撮像する場合、車両の外部からの外光の影響等によって、運転者の眼の付近が影となって眼の付近が暗く撮像され暗い部分の階調が失われてつぶれた状態(黒つぶれ)の画像が得られることがある。この場合、運転者の眼の開閉度や眼の位置を検出することができないため、運転者の眼の開閉度判定や視方向の判定が困難となる。
一方、上記運転者を撮像する際の露光量を多く(例えば、電子シャッタの時間を長くする)して、影となっている部位に対する光量を上げて黒つぶれを防止して撮像することが考えられる。しかしながら、影となっている運転者の眼の付近を基準として露光量を決めた場合、当該眼の付近が明るくなった画像が得られるが、運転者の顔の輪郭等の他の明るい部分の階調が失われた状態(白とび)の画像が得られるため、当該明るい部分の画像を用いた処理ができなくなる。
それ故に、本発明の目的は、運転者の状態を判定するために適切な画像を撮像して、当該運転者の状態を判定することができる運転者撮像装置および運転者撮像方法を提供することである。
上記のような目的を達成するために、本発明は、以下に示すような特徴を有している。
第1の発明は、撮像手段、第1撮像画像処理手段、および第2撮像画像処理手段を備える運転者撮像装置である。撮像手段は、車両の運転者の顔を撮像する。第1撮像画像処理手段は、撮像手段が撮像した第1撮像画像を用いて、当該第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行う。第2撮像画像処理手段は、第1撮像画像より露光量が多い撮像条件で撮像手段が撮像した第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の顔の一部分に対する画像処理を行う。
第2の発明は、上記第1の発明において、第2撮像画像処理手段は、第2撮像画像に撮像されている運転者の眼周辺の部分に対する画像処理を行うことによって、運転者の眼の開閉度および視線方向の少なくとも一方を検出する。
第3の発明は、上記第1または第2の発明において、第1撮像画像処理手段は、第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行うことによって、車両の正面を基準とした運転者の顔の向きおよび運転者の眼の位置の少なくとも一方を検出する。
第4の発明は、上記第2の発明において、第1撮像画像処理手段は、第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行うことによって、当該第1撮像画像で運転者の眼が撮像されている範囲を検出する。第2撮像画像処理手段は、第1撮像画像処理手段が検出した範囲内を第2撮像画像に対して画像処理を行うことによって、運転者の眼の開閉度および視線方向の少なくとも一方を検出する。
第5の発明は、上記第1または第2の発明において、シャッタ制御手段を、さらに備える。シャッタ制御手段は、撮像手段が撮像の際に光を取り込む時間となるシャッタ時間を制御する。シャッタ制御手段は、第1撮像画像を撮像する際のシャッタ時間より、第2撮像画像を撮像する際のシャッタ時間を相対的に長くすることによって、撮像手段が撮像する露光量を制御する。
第6の発明は、上記第5の発明において、シャッタ制御手段は、シャッタ時間補正手段を含む。シャッタ時間補正手段は、第1撮像画像で撮像されている広域部分の明るさに応じて第1撮像画像を撮像する際のシャッタ時間を補正し、第2撮像画像で撮像されている一部分の明るさに応じて第2撮像画像を撮像する際のシャッタ時間を補正する。
第7の発明は、上記第1または第2の発明において、露光量制御手段を、さらに備える。露光量制御手段は、撮像手段が撮像の際の露光量をそれぞれ制御する。露光量制御手段は、第1撮像画像を撮像する露光量で撮像手段が撮像するタイミングと第2撮像画像を撮像する露光量で撮像手段が撮像するタイミングとを周期的に交互に切り換える。
第8の発明は、上記第1または第2の発明において、記憶手段を、さらに備える。記憶手段は、第1撮像画像および第2撮像画像を記憶する。第1撮像画像処理手段および第2撮像画像処理手段は、連続して撮像されて記憶手段に記憶された第1撮像画像および第2撮像画像の組を用いて、それぞれ画像処理を行う。
第9の発明は、撮像手段と、顔向き判定手段と、眼開閉度判定手段および視線方向検出手段の少なくとも一方とを備える運転者撮像装置である。撮像手段は、車両の運転者の顔を撮像する。顔向き判定手段は、撮像手段が撮像した第1撮像画像を用いて、車両の正面を基準とした当該第1撮像画像に撮像されている運転者の顔の向きを判定する。眼開閉度判定手段は、運転者撮像装置第1撮像画像より露光量が多い撮像条件で撮像手段が撮像した第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の眼の開閉度を判定する。視線方向検出手段は、上記第2撮像画像に撮像されている運転者の眼の視線方向を判定する。
第10の発明は、第1撮像画像処理ステップおよび第2撮像画像処理ステップを含む運転者撮像方法である。第1撮像画像処理ステップは、車両の運転者の顔が撮像された第1撮像画像を用いて、当該第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行う。第2撮像画像処理ステップは、第1撮像画像より露光量が多い撮像条件で運転者の顔が撮像された第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の顔の一部分に対する画像処理を行う。
第11の発明は、顔向き判定ステップと、眼開閉度判定ステップおよび視線方向検出ステップの少なくとも一方とを含む運転者撮像方法である。顔向き判定ステップは、車両の運転者の顔が撮像された第1撮像画像を用いて、車両の正面を基準とした当該第1撮像画像に撮像されている運転者の顔の向きを判定する。眼開閉度判定ステップは、運転者撮像方法第1撮像画像より露光量が多い撮像条件で運転者の顔が撮像された第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の眼の開閉度を判定する。視線方向検出ステップは、上記第2撮像画像に撮像されている運転者の眼の視線方向を判定する。
上記第1の発明によれば、撮像時の露光量が異なる2つの画像において、それぞれ適切な階調が得られる部分を用いた画像処理が可能となるため、運転者の状態を正確に判定することができる。例えば、第1撮像画像(露出量が相対的に少ない画像)を用いて明るく撮像される運転者の顔の広域部分の画像処理を行い、第2撮像画像(露出量が相対的に多い画像)を用いて暗く撮像される運転者の顔の一部分の画像処理を行うことによって、運転者の状態を正確に判定することができる。
上記第2の発明によれば、第2撮像画像を用いて暗く撮像される運転者の眼周辺等の顔の一部分の画像処理を行って、眼の開閉度や視線方向が検出される。これによって、暗く撮像される部分に対して露出量が相対的に多い画像を用いて、眼の状態に基づいた判定を行うことができるため、当該部分の状態に基づいた運転者状態の判定を正確に行うことができる。
上記第3の発明によれば、第1撮像画像を用いて明るく撮像される運転者の顔の広域部分(輪郭や鼻孔等)の画像処理を行って、運転者の顔の向きや運転者の眼の位置が検出される。これによって、明るく撮像される部分に対して露出量が相対的に少ない画像を用いて、運転者の顔の広域部分の状態に基づいた判定(例えば、運転者の顔向きに基づいた脇見判定)を行うことができるため、当該部分の状態に基づいた運転者状態の判定を正確に行うことができる。
上記第4の発明によれば、運転者の顔の広域部分(輪郭や鼻孔等)の階調が得られる第1撮像画像を用いて眼が撮像されている範囲を検出するため、当該範囲を正確に決定することができる。また、運転者の眼周辺等の顔の一部分の階調が得られる第2撮像画像を用いて、上記範囲内を探索する画像処理を行って運転者の眼の開閉度や視線方向を検出するため、画像処理の探索範囲が削減されると共に、運転者の眼の状態を正確に判定することができる。
上記第5の発明によれば、撮像手段のシャッタ時間(例えば、CCDの電子シャッタ時間)を調整することによって、容易に露光量の異なる第1撮像画像および第2撮像画像を得ることができる。
上記第6の発明によれば、運転者の顔の広域部分の明るさに応じて第1撮像画像を得るためのシャッタ時間を補正し、運転者の顔の一部分の明るさに応じて第2撮像画像を得るためのシャッタ時間を補正することによって、被撮像物の明るさが画像処理を行う部位に対して適切に調整することができる。したがって、画像処理を行う部位の階調が適切に得られる撮像画像を用いた処理が常に可能となる。
上記第7および第8の発明によれば、第1撮像画像および第2撮像画像を周期的に交互に切り換えて撮像することによって、時差の少ない第1撮像画像と第2撮像画像とを得ることができ、ほぼ同じ位置および状態で撮像された運転者の状態を判定することができる。
上記第9の発明によれば、撮像時の露光量が異なる2つの画像において、それぞれ適切な階調が得られる部分を用いた画像処理が可能となるため、運転者の顔向きおよび眼の開閉度を正確に判定することができる。
また、本発明の運転者撮像方法によれば、上述した運転者撮像装置と同様の効果を得ることができる。
以下、図1を参照して本発明の一実施形態に係る運転者撮像装置について説明する。なお、本実施形態では、当該運転者撮像装置を含むドライバサポートシステムが車両に搭載される例について説明する。一例として、ドライバサポートシステムは、当該車両を運転する運転者の顔を撮像し、撮像画像に基づいて運転者の状態(顔の向き、眼の開閉度、視線方向等)を判断して、判断結果に応じた車両の制御を行う。また、上記ドライバサポートシステムは、車両周辺の他の車両や障害物を認知し衝突の危険性を判断して、判断結果に応じた車両の制御も行う。なお、図1は、当該運転者撮像装置を含むドライバサポートシステムの機能構成の一例を示すブロック図である。
図1において、ドライバサポートシステムは、ドライバモニタカメラ1、ドライバモニタECU(Electrical Control Unit)2、ドライバサポートシステムECU3、ミリ波レーダ4、メータ5、ブレーキ制御ECU6、警報ブザー61、およびブレーキACT(アクチュエータ)62を備えている。そして、ドライバモニタECU2、ドライバサポートシステムECU3、およびミリ波レーダ4は、互いにCAN(Controller Area Network)1等を介して接続される。また、ドライバサポートシステムECU3、メータ5、およびブレーキ制御ECU6は、CAN2等を介して接続される。
ドライバモニタカメラ1は、ドライバモニタECU2から電力が供給されてそれぞれ作動するCCD(Charge Coupled Device)11およびLED(Light Emitting Diode)12を含む。例えば、LED12は、運転者の正面から当該運転者へ向けて近赤外光を照射する照明装置である。この場合、CCD11は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。このように、近赤外領域で高い感度特性を有するCCD11を用いることにより、夜間やトンネル内等を走行中で車内が暗い状況でも、LED12で照らされた運転者を感度よく撮像することが可能である。なお、CCD11は、運転者の顔を正面から撮像可能な位置に配置される。そして、CCD11は、所定の周期毎に運転者の顔およびその周囲の画像を撮像して、撮像された画像をドライバモニタECU2へ出力する。具体的には、CCD11は、ドライバモニタECU2の指示に応じて露光量の異なる2つの撮像画像(第1撮像画像P1および第2撮像画像P2)を所定の周期毎に交互に撮像して、撮像された2つの撮像画像をドライバモニタECU2へ出力する。なお、ドライバモニタカメラ1の設置位置の詳細については、後述する。
ドライバモニタECU2は、その内部に複数のマイクロコンピュータ(以下、マイコンと記載する)等の情報処理装置、処理に用いる各種データを格納するメモリ、ドライバモニタカメラ1に電力を供給する電源回路、およびインターフェース回路などを備える処理装置である。例えば、ドライバモニタECU2は、ドライバモニタカメラ1で撮像された撮像画像を用いて、運転者の顔向きを検知したり、運転者の眼の開閉度や視線方向を検知したりして、その結果をドライバサポートシステムECU3へ出力する。また、ドライバモニタECU2は、所定の周期毎に交互に撮像された2つの画像を用いてCCD11が撮像する露光量を調整する。
ミリ波レーダ4は、車両の前方、後方、斜め前方向等へ向けてミリ波を出射して、対象物から反射した電波を受信する。そして、ミリ波レーダ4は、受信した電波に基づいて、車両の周辺に存在する他の車両や障害物の位置や自車との相対速度等を測定して、その結果をドライバサポートシステムECU3へ出力する。
ドライバサポートシステムECU3は、ドライバモニタECU2から出力された運転者の顔向き、眼の開閉度、および視線方向等の情報と、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。図1においては、ドライバサポートシステムECU3が制御する装置の一例として、メータ5およびブレーキ制御ECU6が記載されている。
メータ5は、車両の運転席に着席して当該車両を運転する運転者から視認可能な位置に設けられる。例えば、メータ5は、運転席前面の計器盤(インスツルメントパネル)に設けられ、ドライバサポートシステムECU3からの指示に応じた警報を運転者に表示する。例えば、運転者が正面を向いていない状態や眼を閉じている状態や脇見している状態であると判断され、車両と他の物体との衝突の危険性がある場合、ドライバサポートシステムECU3は、メータ5に運転者に衝突回避操作を促す表示を早期に行う(警報の前出し)。典型的には、メータ5は、主要ないくつかの計器、表示灯、警告灯、および各種情報を表示するマルチインフォメーションディスプレイ等を1つのパネル内に組み合わせて配置したコンビネーションメータで構成される。なお、メータ5は、ハーフミラー(反射ガラス)を運転席前面のフロントガラスの一部に設け、当該ハーフミラーに情報等の虚像を蛍光表示するヘッドアップディスプレイ(Head-Up Display;以下、HUDと記載する)等、他の表示装置で構成してもかまわない。
ブレーキ制御ECU6は、車両に搭載された警報ブザー61やブレーキACT62の動作を制御する。例えば、運転者が正面を向いていない状態や眼を閉じている状態や視線が脇見している状態であると判断され、車両と他の物体との衝突の危険性があるとドライバサポートシステムECU3が判断した場合、ブレーキ制御ECU6は、警報ブザー61を早期に作動させて運転者に衝突回避操作を促す(警報の前出し)。これによって、運転者は、早期に上記脇見等の運転状態を解消して衝突回避操作を行うことができる。また、ブレーキ制御ECU6は、運転者がブレーキペダルを踏んだ力に応じて、ブレーキ油圧を加圧加勢するように、ブレーキACT62の動作を制御する等を行う(警報ブレーキ)。これによって、ブレーキACT62の油圧応答性が向上し、車両の速度低減を図ることができる。
次に、図2および図3を参照して、ドライバモニタカメラ1について説明する。なお、図2は、車両に設置されたドライバモニタカメラ1を運転席の横方向から見た一例を示す側面概要図である。図3は、車両に設置されたドライバモニタカメラ1をステアリングホイール91側から見た一例を示す正面概要図である。
図2および図3において、ドライバモニタカメラ1は、ステアリングコラム92の上面に設置される。そして、ドライバモニタカメラ1は、ステアリングホイール91の開口部(例えば、リム911の内側でスポーク912等が設けられていない開口部)を通って、ステアリングホイール91を操作する運転者の正面から当該運転者の顔を撮像するように撮像方向が調整される。なお、図2においては、ドライバモニタカメラ1の視野を示す視体積の一部(カメラ画角の一部)が破線で記載されており、運転手の頭部が当該視体積内に含まれるようにドライバモニタカメラ1の撮像方向が調整される。ここで、上述したようにドライバモニタカメラ1にはLED12が設けられているが、LED12も上記撮像方向と同様に、運転者の正面から当該運転者へ向けて近赤外光を照射する。なお、LED12が近赤外光は、少なくともドライバモニタカメラ1のカメラ画角より広い範囲に照射される。このように、ドライバモニタカメラ1は、ステアリングコラム92上に設置されるため、運転者の正面となる至近距離から当該運転者を撮像することができ、車両に乗車した運転者の顔を精度よく撮像することが可能となる。
次に、図4および図5を参照して、ドライバモニタカメラ1が撮像する第1撮像画像P1および第2撮像画像P2について説明する。なお、図4は、露光量を相対的に少なくしてドライバモニタカメラ1が撮像した運転者の第1撮像画像P1の一例を示す図である。図5は、露光量を相対的に多くしてドライバモニタカメラ1が撮像した運転者の第2撮像画像P2の一例を示す図である。
図4において、ドライバモニタカメラ1が運転者を撮像する場合、一般的には運転者の顔全体の明るさに応じた露光量で撮像される(当該撮像で得られる撮像画像を第1撮像画像P1とする)。したがって、第1撮像画像P1では、車両の外部からの外光の影響等によって、運転者の眼の付近が影となって眼の付近が暗く撮像され、当該暗い部分の階調が失われてつぶれた黒つぶれの状態(図4では斜線領域で示す)となることがある。特に、欧米の人のように彫りの深い顔であれば、眼の周りに影ができて暗い部分として撮像されることが多い。しかしながら、第1撮像画像P1は、運転者の顔全体となる明るい部分に対する階調が得られるため、運転者の顔の輪郭や鼻孔の位置等の広域部分の検出に適している。
図5において、ドライバモニタカメラ1が相対的に露出量を多く(例えば、電子シャッタの時間を長くする)して運転者を撮像する場合、上述した暗い部分が明るくなるために黒つぶれが防止されて撮像される(当該撮像で得られる撮像画像を第2撮像画像P2とする)。したがって、第2撮像画像P2は、一般的な露出量では暗く撮像される部分に対する階調が得られるため、運転者の眼等の顔の一部分に対する画像処理に適している。しかしながら、第2撮像画像P2では、運転者の顔全体となる明るい部分の階調が失われた白とび状態(図5では破線で示す)の画像が得られることがある。
本実施形態に係る運転者撮像装置では、相対的に露光量が少ない画像、すなわち第1撮像画像P1を用いて、運転者の顔の広域部分(例えば、顔の輪郭や鼻孔の位置)に対する画像処理を行う。また、当該運転者撮像装置では、相対的に露光量が多い画像、すなわち第2撮像画像P2を用いて、運転者の顔の一部分(例えば、眼)に対する画像処理を行う。
次に、図6および図7を参照して、運転者撮像処理において用いられる主なデータおよびドライバモニタECU2の動作の一例について説明する。なお、図6は、ドライバモニタECU2のメモリに記憶される主なデータの一例を示す図である。図7は、ドライバモニタECU2によって実行される処理の一例を示すフローチャートである。なお、図7に示すフローチャートの各ステップは、ドライバモニタECU2が所定のプログラムを実行することによって行われる。なお、これらの処理を実行するためのプログラムは、例えば、ドライバモニタECU2に設けられた記憶領域(例えば、メモリ、ハードディスク、光ディスク等)に予め格納されており、ドライバモニタECU2の電源がそれぞれオンになったときにドライバモニタECU2によって実行される。
図6において、ドライバモニタECU2のメモリには、第1画像データDa、第2画像データDb、第1電子シャッタデータDc、第2電子シャッタデータDd、顔向き検知データDe、眼の位置データDf、および眼の開閉度/視線検知データDg等が記憶される。
第1画像データDaは、ドライバモニタカメラ1が撮像した相対的に露光量が少ない画像、すなわち第1撮像画像P1を示すデータが記憶され、所定の処理周期毎に更新される。第2画像データDbは、ドライバモニタカメラ1が撮像した相対的に露光量が多い画像、すなわち第2撮像画像P2を示すデータが記憶され、所定の処理周期毎に更新される。なお、後述により明らかとなるが、第1画像データDaに記憶するための第1撮像画像P1を撮像するタイミングと、第2画像データDbに記憶するための第2撮像画像P2を撮像するタイミングとの時差は、極めて短い時間間隔(ドライバモニタカメラ1の撮像周期間隔であり、例えば、1/30秒や1/60秒)で行われる。
第1電子シャッタデータDcは、ドライバモニタカメラ1が第1撮像画像P1を撮像する際の電子シャッタの時間(光を取り込む時間)を示すデータが記憶される。第2電子シャッタデータDdは、ドライバモニタカメラ1が第2撮像画像P2を撮像する際の電子シャッタの時間を示すデータが記憶される。
顔向き検知データDeは、運転者の顔の向きが正面に対してどの程度左右方向に向いているかを示す顔向き角度αを示すデータが記憶される。眼の位置データDfは、第1撮像画像P1に対して設定された左眼探索範囲および右眼探索範囲の位置や大きさを示すデータが記憶される。眼の開閉度/視線検知データDgは、運転者の眼の開閉度および視線方向を示すデータが記憶される。
図7において、ドライバモニタECU2は、初期設定を行い(ステップS51)、次のステップに処理を進める。具体的には、ドライバモニタECU2は、上記ステップS51において、メモリに記憶されている各パラメータや画像データ等を初期化する。例えば、ドライバモニタECU2は、第1撮像画像P1を撮像する際の電子シャッタの時間および第2撮像画像P2を撮像する際の電子シャッタの時間をデフォルトの時間に設定し、当該時間を用いて第1電子シャッタデータDcおよび第2電子シャッタデータDdに記憶する。
次に、ドライバモニタECU2は、ドライバモニタカメラ1から第1撮像画像P1を取得して、第1画像データDaを更新し(ステップS52)、次のステップに処理を進める。例えば、ドライバモニタECU2は、第1電子シャッタデータDcを参照して第1撮像画像P1用の電子シャッタの時間を取得し、当該電子シャッタの時間で撮像するようにドライバモニタカメラ1の動作制御を行う。そして、ドライバモニタECU2は、第1撮像画像P1用の電子シャッタの時間で撮像された第1撮像画像P1を示すデータをドライバモニタカメラ1から取得して、第1画像データDaを更新する。
次に、ドライバモニタECU2は、ドライバモニタカメラ1から第2撮像画像P2を取得して、第2画像データDbを更新し(ステップS53)、次のステップに処理を進める。例えば、ドライバモニタECU2は、第2電子シャッタデータDdを参照して第2撮像画像P2用の電子シャッタの時間を取得し、当該電子シャッタの時間で撮像するようにドライバモニタカメラ1の動作制御を行う。そして、ドライバモニタECU2は、第2撮像画像P2用の電子シャッタの時間で撮像された第2撮像画像P2を示すデータをドライバモニタカメラ1から取得して、第2画像データDbを更新する。
ここで、上記ステップS52およびステップS53の処理間隔は、できる限り短い時間間隔で行うのが好ましい。例えば、ドライバモニタカメラ1の撮像周期が1秒間で30コマや60コマである場合、当該撮像周期に合わせて上記ステップS52およびステップS53の処理間隔を1/30秒や1/60秒とする。これによって、第1画像データDaに格納される第1撮像画像P1を撮像したタイミングと、第2画像データDbに格納される第2撮像画像P2を撮像したタイミングとの時差を、極めて短い時間にすることができる。
次に、ドライバモニタECU2は、運転者の顔の向きが正面に対してどの程度左右方向に向いているかを検知する顔向き検知処理を、第1撮像画像P1を用いて行い(ステップS54)、次のステップに処理を進める。以下、ステップS54で行う顔向き検知処理の一例について説明する。
例えば、ドライバモニタECU2は、上記のステップS52において取得した第1撮像画像P1に基づいて、運転者の顔の向きが車両の正面に対してどの程度左右方向に向いているかを示す顔向き角度αを算出する。ここで、顔向き角度αの値は、ドライバモニタカメラ1に対して正面(つまり、車両の正面)を向いた状態がα=0とする。そして、顔向き角度αの値は、顔がドライバモニタカメラ1に対して正面を向いた状態から右方向を向くほど大きな値になるとし、左方向を向くほど小さな値になるとする。つまり、顔向き角度αの値は、顔がドライバモニタカメラ1に対して右方向を向くと正の値となり、左方向を向くと負の値となる。
ドライバモニタECU2は、ソーベルオペレータ等を用いたエッジ抽出処理によって、第1撮像画像P1中で顔の輪郭部分および顔の左右方向の中心となる縦中心線を探索して、第1撮像画像P1中に撮像されている運転者の顔の輪郭左端、輪郭右端、および顔の縦中心線を検出する。例えば、ドライバモニタECU2は、第1撮像画像P1の輝度画像を作成し、当該輝度画像にエッジ抽出処理を施して、顔の輪郭左端、輪郭右端、および顔部品(眉、眼、鼻、口等)の位置を抽出する。次に、ドライバモニタECU2は、抽出された顔の輪郭左端、輪郭右端、および顔部品の位置に基づいて、第1撮像画像P1に撮像された運転者の顔幅および縦中心線を算出する。そして、ドライバモニタECU2は、輪郭左端から縦中心線までの左顔幅、および輪郭右端から縦中心線までの右顔幅をそれぞれ算出する。
次に、ドライバモニタECU2は、上記左顔幅および右顔幅の値の比に基づいて顔向き角度αを算出する。例えば、運転者の顔がドライバモニタカメラ1に対して正面を向いている場合、右顔幅および左顔幅が等しくなる。一方、運転者の顔が右を向いている場合、右顔幅に比べ左顔幅の方が大きくなる。すなわち、顔向き角度αの大きさに応じて、右顔幅および左顔幅の値の比率が変化する。そこで、ドライバモニタECU2は、右顔幅および左顔幅の値の比率に基づいて、顔向き角度αを算出する。そして、ドライバモニタECU2は、算出された顔向き角度αを示すデータを用いて顔向き検知データDeを更新する。
このように、上記ステップS54で行う顔向き検知処理においては、第1撮像画像P1を用いて行われている。ここで、上述したように第1撮像画像P1は、運転者の顔全体となる明るい部分に対する階調が得られているため、運転者の顔の輪郭や鼻孔の位置等を検出するのに適している。そして、上記顔向き検知処理では、撮像画像における顔の輪郭部分や顔の縦中心線の探索がエッジ抽出処理によって行われるため、第1撮像画像P1を用いることによって正確な顔向き角度αを得ることができる。
ステップS54で行う顔向き検知処理の後、ドライバモニタECU2は、運転者の眼の位置がどの範囲に撮像されているかを推定する眼の位置推定処理を、第1撮像画像P1を用いて行い(ステップS55)、次のステップに処理を進める。以下、ステップS55で行う眼の位置推定処理の一例について説明する。
まず、ドライバモニタECU2は、上記ステップ54で算出された運転者の顔幅情報等を用いて、第1撮像画像P1にいて運転者の鼻が撮像されていると推定される範囲を設定する。そして、ドライバモニタECU2は、上記範囲内に対して運転者の鼻の部分を探索して、第1撮像画像P1における鼻の位置を検出する。具体的には、ドライバモニタECU2は、上記範囲内における一対の鼻孔の位置を検出する。そして、ドライバモニタECU2は、一対の鼻孔の中間位置を第1撮像画像P1における鼻の位置として設定する。なお、一般的に鼻孔の形状は、眼の形状等に比べて個人差が小さい。そのため、鼻孔の位置は眼の位置等に比べてより正確に検出することができる。
次に、ドライバモニタECU2は、鼻の位置を基準に最適な左眼の探索範囲および右眼の探索範囲を第1撮像画像P1に対して設定する。例えば、ドライバモニタECU2は、鼻の位置から予め定められた方向に所定距離だけ離れた第1撮像画像P1上の位置に、左眼探索範囲および右眼探索範囲をそれぞれ設定する。ここで、鼻の位置を基準として左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離は、予め定められた標準となる情報に基づいて設定すればよい。なお、上記幅情報に応じて、左眼探索範囲および右眼探索範囲をそれぞれ設定する方向および距離や左眼探索範囲および右眼探索範囲の大きさをそれぞれ変化させてもかまわない。これによって、第1撮像画像P1で撮像されている運転者の顔のサイズが変化(典型的には、運転者の顔とドライバモニタカメラ1との間の距離が変化)しても、当該顔のサイズの変化に追従して左眼探索範囲および右眼探索範囲の位置や大きさを適切に設定することができる。そして、ドライバモニタECU2は、設定された左眼探索範囲および右眼探索範囲の位置や大きさを示すデータを用いて眼の位置データDfを更新する。
このように、上記ステップS55で行う眼の位置推定処理においては、第1撮像画像P1を用いて行われている。ここで、上述したように第1撮像画像P1は、運転者の顔全体となる明るい部分に対する階調が得られているため、運転者の鼻孔の位置等を検出するのに適している。そして、上記眼の位置推定処理では、撮像画像における顔の鼻孔位置を基準として左眼探索範囲および右眼探索範囲の位置が設定されるため、第1撮像画像P1を用いることによって正確な探索範囲の設定が可能となる。
ステップS55で行う眼の位置推定処理の後、ドライバモニタECU2は、運転者の眼の開閉度および視線方向を検知する眼の開閉度/視線検知処理を、第2撮像画像P2を用いて行い(ステップS56)、次のステップに処理を進める。以下、ステップS56で行う眼の開閉度/視線検知処理の一例について説明する。
まず、ドライバモニタECU2は、第2撮像画像P2において左右の眼が撮像されている位置を検出する。ここで、上述したように第1撮像画像P1および第2撮像画像P2は、同じドライバモニタカメラ1によって極めて短い時間間隔で撮像されて得られた画像である。つまり、第1撮像画像P1および第2撮像画像P2に撮像されている被撮像物(すなわち、運転者の顔)は、ほぼ同じ位置に同じ状態で撮像されていると仮定することができる。また、眼の位置データDfには、第1撮像画像P1において設定された左眼探索範囲および右眼探索範囲の位置や大きさを示すデータが格納されている。したがって、ドライバモニタECU2は、第1撮像画像P1において設定された左眼探索範囲および右眼探索範囲の位置や大きさを、そのまま第2撮像画像P2に適用して、第2撮像画像P2に対して左眼探索範囲および右眼探索範囲を設定する。
そして、ドライバモニタECU2は、第2画像データDbを参照して、第2撮像画像P2に設定された左眼探索範囲内において、運転者の左眼を探索して検出する。また、ドライバモニタECU2は、上記第2撮像画像P2に設定された右眼探索範囲内において、運転者の右眼を探索して検出する。例えば、探索範囲内における眼の検出については、予め設定された眼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。
次に、ドライバモニタECU2は、運転者の両眼の開閉度を算出する。例えば、ドライバモニタECU2は、第2撮像画像P2における運転者の左眼および右眼それぞれについて、上瞼の輪郭および下瞼の輪郭を抽出する。例えば、左眼および右眼における上瞼および下瞼の検出については、予め設定された上瞼および下瞼のテンプレート画像を用いた各種パターンマッチング手法を用いて行うことができる。そして、ドライバモニタECU2は、それぞれの上瞼と下瞼との間の距離を各眼の開閉度として算出する。
また、ドライバモニタECU2は、運転者の視線方向を算出する。例えば、ドライバモニタECU2は、第2撮像画像P2における運転者の左眼および右眼それぞれについて、虹彩の位置を抽出する。例えば、左眼および右眼における虹彩の検出については、楕円フィルタを用いる手法等を用いることができる。一般的に、虹彩の形状は、撮像画像上においては、顔向きや瞼で遮られたりして円形にはならず、むしろ楕円形状になることが多い。そこで、第2撮像画像P2における運転者の左眼および右眼それぞれについて、サイズが異なる複数の楕円フィルタを適用し、当該楕円フィルタの外側領域および内側領域に対する輝度をそれぞれ求める。このとき、外側領域の輝度と内側領域の輝度との間に輝度の差が生じれば、楕円フィルタの内側範囲を虹彩として、用いた楕円フィルタの位置から虹彩の位置を求める。なお、左眼および右眼における虹彩の位置検出については、この手法に限らず、予め設定された虹彩のテンプレート画像を用いた各種パターンマッチング手法や、左眼および右眼の内部を2値化して黒色領域の位置を抽出する手法等、他の検出手法を用いてもかまわない。
そして、ドライバモニタECU2は、運転者の左眼および右眼それぞれにおける虹彩の位置と、顔向き検知データDeに記憶されている顔向き方向αとに基づいて、運転者の視線方向を算出する。例えば、ドライバモニタECU2は、車両の正面方向に対する運転者の視線の角度を視線方向として算出する。そして、ドライバモニタECU2は、算出された各眼の開閉度を示すデータおよび視線方向を示すデータを用いて、眼の開閉度/視線検知データDgを更新する。
このように、上記ステップS56で行う眼の開閉度/視線検知処理においては、第2撮像画像P2を用いて行われている。ここで、上述したように第2撮像画像P2は、一般的な露出量では暗く撮像される部分に対する階調が得られるため、運転者の眼等の顔の一部分に対する画像処理に適している。そして、上記眼の開閉度/視線検知処理では、撮像画像における瞼や虹彩を探索して、瞼の間隔や虹彩の位置等が抽出されるため、第2撮像画像P2を用いることによって正確なパラメータの抽出が可能となる。
上記ステップS56で行う眼の開閉度/視線検知処理の後、ドライバモニタECU2は、処理結果をドライバサポートシステムECU3へ出力し(ステップS57)、次のステップに処理を進める。具体的には、ドライバモニタECU2は、顔向き検知データDeに格納されている顔向き角度αを示すデータと、眼の開閉度/視線検知データDgに格納されている眼の開閉度および視線方向を示すデータとを、ドライバサポートシステムECU3へ出力する。ドライバサポートシステムECU3は、ドライバモニタECU2から受け取った各データと、ミリ波レーダ4から出力された自車周辺の車両や障害物の認知結果とに基づいて、車両に搭載された乗員保護装置特性を適正に調整したり、衝突条件緩和システムを作動させたり、運転者に適切な警告を与えたりする。
次に、ドライバモニタECU2は、第1撮像画像P1および第2撮像画像P2に基づいて、CCD11が撮像する電子シャッタの時間を補正して(ステップS58)、次のステップに処理を進める。具体的には、ドライバモニタECU2は、第1画像データDaに格納されている第1撮像画像P1を参照し、第1撮像画像P1に撮像されている被撮像物全体の明るさ(典型的には、撮像されている運転者の顔全体の明るさ)が適正な明るさとなるように、第1撮像画像P1用の電子シャッタの時間を補正する。そして、ドライバモニタECU2は、補正後の電子シャッタの時間を用いて、第1電子シャッタデータDcを更新する。また、ドライバモニタECU2は、第2画像データDbに格納されている第2撮像画像P2を参照し、第2撮像画像P2に撮像されている被撮像物の一部分の明るさ(具体的には、撮像されている運転者の眼の周辺部位であり、例えば左眼探索範囲および右眼探索範囲)が適正な明るさとなるように、第2撮像画像P2用の電子シャッタの時間を補正する。そして、ドライバモニタECU2は、補正後の電子シャッタの時間を用いて、第2電子シャッタデータDdを更新する。
次に、ドライバモニタECU2は、処理を終了するか否かを判断する(ステップS59)。例えば、ドライバモニタECU2は、車両の運転者が処理を終了する操作(例えば、イグニッションスイッチをOFFする操作等)を行った場合、処理を終了すると判断する。そして、ドライバモニタECU2は、処理を継続する場合、上記ステップS52に戻って処理を繰り返す。一方、ドライバモニタECU2は、処理を終了する場合、当該フローチャートによる処理を終了する。
このように、本実施形態に係る運転者撮像装置によれば、撮像時の露光量が異なる2つの画像において、それぞれ適切な階調が得られる部分を用いた画像処理が行われるため、運転者の状態を正確に判定することができる。具体的には、第1撮像画像P1(露出量が相対的に少ない画像)を用いて明るく撮像される運転者の顔の広域部分(輪郭や鼻孔等)の画像処理を行い、第2撮像画像P2(露出量が相対的に多い画像)を用いて暗く撮像される運転者の顔の一部分(眼周辺等)の画像処理を行う。つまり、当該運転者撮像装置では、露出量が相対的に少ない第1撮像画像P1を用いて運転者の顔向き方向に基づいた判定(脇見判定)を行い、露出量が相対的に多い第2撮像画像P2を用いて眼の状態に基づいた判定(眼の開閉度、視線方向)を行うことができるため、これらの運転者状態の判定を正確に行うことができる。
なお、上述した実施例では、露出量の異なる第1撮像画像P1および第2撮像画像P2を得るために、CCD11が異なる電子シャッタの時間で撮像する例を用いたが、CCD11の他の撮像パラメータを調整して露出量が異なる画像を撮像してもかまわない。一例として、CCD11のゲイン(感度)をそれぞれ調整することによって、露出量が異なる画像を撮像してもかまわない。他の例として、ドライバモニタカメラ1に設けられている機械的な絞りをそれぞれ調整することによって、露出量が異なる画像を撮像してもかまわない。
また、上述した説明では、露出量が相対的に少ない第1撮像画像P1を用いて、運転者の顔向きおよび眼の探索範囲を検出する一例を用いたが、何れか一方のみを検出してもかまわない。さらに、上述した説明では、露出量が相対的に多い第2撮像画像P2を用いて、運転者の眼の開閉度および視線方向を判定する一例を用いたが、何れか一方のみを検出してもかまわない。
さらに、上述した説明では、露出量が相対的に多い第2撮像画像P2を用いて、運転者の眼の状態を判定する一例を用いたが、第2撮像画像P2を用いて運転者の顔の他の部位の状態を判定してもかまわない。例えば、第2撮像画像P2を用いて、運転者の口、眉、および皺等の状態を判定してもかまわない。本発明では、顔全体の明るさを確保した撮像画像を用いた画像処理に加えて、顔の一部分の明るさを確保した撮像画像を用いた画像処理を行うことによって、当該顔の一部分に対する正確な画像処理が可能となるので、運転者の顔の一部分であれば眼以外の部分の明るさに注目した撮像画像を用いてもかまわない。
また、上述した処理手順においては、第1撮像画像P1を取得するステップ(ステップS52)および第2撮像画像P2を取得するステップ(ステップS53)を連続して行い、その後のそれぞれの画像処理が終了するのを待って、再び第1撮像画像P1および第2撮像画像P2を連続して取得するステップを行うことによって、極めて短い時間間隔で撮像された2つの画像の組を取得している。これによって、両者に撮像された被撮像物の位置や状態がほぼ同じと仮定した画像処理が可能となる。しかしながら、このような効果を期待しない場合、他の処理周期で第1撮像画像P1および第2撮像画像P2を撮像してもかまわない。例えば、上述した画像処理周期とは独立して、ドライバモニタカメラ1の撮像周期で交互に撮像された第1撮像画像P1および第2撮像画像P2を用いて、第1画像データDaおよび第2画像データDbを随時更新してもかまわない。この場合、上記ステップS54およびステップS55で用いる第1撮像画像P1を撮像したタイミングと、上記ステップS56で用いる第2撮像画像P2を撮像したタイミングとの間の時間間隔が長くなることが考えられるが、各画像処理において最新の撮像画像を用いて処理できる利点がある。
また、上述した実施形態においては、ドライバモニタカメラ1をステアリングコラム92の上面に設置される例を用いたが、ドライバモニタカメラ1を他の位置に設置してもかまわない。ドライバモニタカメラ1は、車両に乗車した運転者の顔を撮像できる位置であればどのような位置に設置されてもかまわず、例えば運転席前面の計器盤(インスツルメントパネル)内、計器盤上、ステアリングホイール内、および車室内上部等に設置してもかまわない。
本発明に係る運転者撮像装置および運転者撮像方法は、運転者の状態を判定するために適切な画像を撮像して当該運転者の状態を判定することができ、車両に着席した運転者の状態を判定するシステム等に有用である。
本発明の一実施形態に係る運転者撮像装置を含むドライバサポートシステムの機能構成の一例を示すブロック図 車両に設置されたドライバモニタカメラ1を運転席の横方向から見た一例を示す側面概要図 車両に設置されたドライバモニタカメラ1をステアリングホイール91側から見た一例を示す正面概要図 露光量を相対的に少なくしてドライバモニタカメラ1が撮像した運転者の第1撮像画像P1の一例を示す図 露光量を相対的に多くしてドライバモニタカメラ1が撮像した運転者の第2撮像画像P2の一例を示す図 ドライバモニタECU2のメモリに記憶される主なデータの一例を示す図 ドライバモニタECU2によって実行される処理の一例を示すフローチャート
符号の説明
1…ドライバモニタカメラ
11…CCD
12…LED
2…ドライバモニタECU
3…ドライバサポートシステムECU
4…ミリ波レーダ
5…メータ
6…ブレーキ制御ECU
61…警報ブザー
62…ブレーキACT
91…ステアリングホイール
911…リム
912…スポーク
92…ステアリングコラム

Claims (11)

  1. 車両の運転者の顔を撮像する撮像手段と、
    前記撮像手段が撮像した第1撮像画像を用いて、当該第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行う第1撮像画像処理手段と、
    前記第1撮像画像より露光量が多い撮像条件で前記撮像手段が撮像した第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の顔の一部分に対する画像処理を行う第2撮像画像処理手段とを備える、運転者撮像装置。
  2. 前記第2撮像画像処理手段は、前記第2撮像画像に撮像されている運転者の眼周辺の部分に対する画像処理を行うことによって、運転者の眼の開閉度および視線方向の少なくとも一方を検出する、請求項1に記載の運転者撮像装置。
  3. 前記第1撮像画像処理手段は、前記第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行うことによって、前記車両の正面を基準とした運転者の顔の向きおよび運転者の眼の位置の少なくとも一方を検出する、請求項1または2に記載の運転者撮像装置。
  4. 前記第1撮像画像処理手段は、前記第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行うことによって、当該第1撮像画像で運転者の眼が撮像されている範囲を検出し、
    前記第2撮像画像処理手段は、前記第1撮像画像処理手段が検出した範囲内を前記第2撮像画像に対して画像処理を行うことによって、運転者の眼の開閉度および視線方向の少なくとも一方を検出する、請求項2に記載の運転者撮像装置。
  5. 前記撮像手段が撮像の際に光を取り込む時間となるシャッタ時間を制御するシャッタ制御手段を、さらに備え、
    前記シャッタ制御手段は、前記第1撮像画像を撮像する際のシャッタ時間より、前記第2撮像画像を撮像する際のシャッタ時間を相対的に長くすることによって、前記撮像手段が撮像する露光量を制御する、請求項1または2に記載の運転者撮像装置。
  6. 前記シャッタ制御手段は、前記第1撮像画像で撮像されている前記広域部分の明るさに応じて前記第1撮像画像を撮像する際のシャッタ時間を補正し、前記第2撮像画像で撮像されている前記一部分の明るさに応じて前記第2撮像画像を撮像する際のシャッタ時間を補正するシャッタ時間補正手段を含む、請求項5に記載の運転者撮像装置。
  7. 前記撮像手段が撮像の際の露光量をそれぞれ制御する露光量制御手段を、さらに備え、
    前記露光量制御手段は、前記第1撮像画像を撮像する露光量で前記撮像手段が撮像するタイミングと前記第2撮像画像を撮像する露光量で前記撮像手段が撮像するタイミングとを周期的に交互に切り換える、請求項1または2に記載の運転者撮像装置。
  8. 前記第1撮像画像および前記第2撮像画像を記憶する記憶手段を、さらに備え、
    前記第1撮像画像処理手段および前記第2撮像画像処理手段は、連続して撮像されて前記記憶手段に記憶された前記第1撮像画像および前記第2撮像画像の組を用いて、それぞれ画像処理を行う、請求項1または2に記載の運転者撮像装置。
  9. 車両の運転者の顔を撮像する撮像手段と、
    前記撮像手段が撮像した第1撮像画像を用いて、前記車両の正面を基準とした当該第1撮像画像に撮像されている運転者の顔の向きを判定する顔向き判定手段と、
    前記第1撮像画像より露光量が多い撮像条件で前記撮像手段が撮像した第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の眼の開閉度を判定する眼開閉度判定手段および当該第2撮像画像に撮像されている運転者の眼の視線方向を判定する視線方向検出手段の少なくとも一方とを備える、運転者撮像装置。
  10. 車両の運転者の顔が撮像された第1撮像画像を用いて、当該第1撮像画像に撮像されている運転者の顔の広域部分に対する画像処理を行う第1撮像画像処理ステップと、
    前記第1撮像画像より露光量が多い撮像条件で前記運転者の顔が撮像された第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の顔の一部分に対する画像処理を行う第2撮像画像処理ステップとを含む、運転者撮像方法。
  11. 車両の運転者の顔が撮像された第1撮像画像を用いて、前記車両の正面を基準とした当該第1撮像画像に撮像されている運転者の顔の向きを判定する顔向き判定ステップと、
    前記第1撮像画像より露光量が多い撮像条件で前記運転者の顔が撮像された第2撮像画像を用いて、当該第2撮像画像に撮像されている運転者の眼の開閉度を判定する眼開閉度判定ステップおよび当該第2撮像画像に撮像されている運転者の眼の視線方向を判定する視線方向検出ステップの少なくとも一方とを含む、運転者撮像方法。
JP2008125057A 2008-05-12 2008-05-12 運転者撮像装置および運転者撮像方法 Expired - Fee Related JP4888838B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2008125057A JP4888838B2 (ja) 2008-05-12 2008-05-12 運転者撮像装置および運転者撮像方法
EP20090746124 EP2288287B1 (en) 2008-05-12 2009-03-11 Driver imaging apparatus and driver imaging method
RU2010146086/28A RU2453884C1 (ru) 2008-05-12 2009-03-11 Устройство для формирования изображения водителя и способ формирования изображения водителя
US12/681,009 US8724858B2 (en) 2008-05-12 2009-03-11 Driver imaging apparatus and driver imaging method
CN2009801005245A CN101951828B (zh) 2008-05-12 2009-03-11 驾驶员成像装置以及驾驶员成像方法
AT09746124T ATE554697T1 (de) 2008-05-12 2009-03-11 Fahrerabbildungsvorrichtung und fahrerabbildungsverfahren
PCT/IB2009/000483 WO2009138828A1 (en) 2008-05-12 2009-03-11 Driver imaging apparatus and driver imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008125057A JP4888838B2 (ja) 2008-05-12 2008-05-12 運転者撮像装置および運転者撮像方法

Publications (2)

Publication Number Publication Date
JP2009276849A true JP2009276849A (ja) 2009-11-26
JP4888838B2 JP4888838B2 (ja) 2012-02-29

Family

ID=40756158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008125057A Expired - Fee Related JP4888838B2 (ja) 2008-05-12 2008-05-12 運転者撮像装置および運転者撮像方法

Country Status (7)

Country Link
US (1) US8724858B2 (ja)
EP (1) EP2288287B1 (ja)
JP (1) JP4888838B2 (ja)
CN (1) CN101951828B (ja)
AT (1) ATE554697T1 (ja)
RU (1) RU2453884C1 (ja)
WO (1) WO2009138828A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115505A (ja) * 2010-12-01 2012-06-21 Fujitsu Ltd 視線検出装置及び視線検出方法
JP2015095161A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 視線方向検知装置
JP2016512765A (ja) * 2013-03-18 2016-05-09 ミラメトリックス インコーポレイテッド 軸上視線追跡システム及び方法
JP2018045386A (ja) * 2016-09-13 2018-03-22 株式会社デンソー 視線計測装置
DE102019106262A1 (de) 2018-03-13 2019-09-19 Omron Corporation Abbildungsvorrichtung
JP2020204984A (ja) * 2019-06-19 2020-12-24 日産自動車株式会社 情報処理装置及び情報処理方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070150138A1 (en) 2005-12-08 2007-06-28 James Plante Memory management in event recording systems
US10878646B2 (en) 2005-12-08 2020-12-29 Smartdrive Systems, Inc. Vehicle event recorder systems
US8996240B2 (en) 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
US9201842B2 (en) 2006-03-16 2015-12-01 Smartdrive Systems, Inc. Vehicle event recorder systems and networks having integrated cellular wireless communications systems
US8649933B2 (en) 2006-11-07 2014-02-11 Smartdrive Systems Inc. Power management systems for automotive video event recorders
US8989959B2 (en) 2006-11-07 2015-03-24 Smartdrive Systems, Inc. Vehicle operator performance history recording, scoring and reporting systems
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
US8239092B2 (en) 2007-05-08 2012-08-07 Smartdrive Systems Inc. Distributed vehicle event recorder systems having a portable memory data transfer system
TWI369899B (en) * 2008-07-21 2012-08-01 Ind Tech Res Inst Method and system for tracking human extremity positions
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
WO2012135018A2 (en) * 2011-03-25 2012-10-04 Tk Holdings Inc. System and method for determining driver alertness
US9177202B2 (en) * 2011-07-11 2015-11-03 Toyota Jidosha Kabushiki Kaisha Red-eye detection device
US9298995B2 (en) * 2011-07-11 2016-03-29 Toyota Jidosha Kabushiki Kaisha Red-eye determination device
US8744642B2 (en) 2011-09-16 2014-06-03 Lytx, Inc. Driver identification based on face data
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
DE102012213466A1 (de) * 2012-07-31 2014-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens
US9728228B2 (en) 2012-08-10 2017-08-08 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
DE102012022819A1 (de) * 2012-11-17 2014-05-22 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtungen zur Ausgabe von Informationen in einem Kraftfahrzeug
TWI492193B (zh) * 2013-06-14 2015-07-11 Utechzone Co Ltd 觸發訊號的方法及車用電子裝置
EP2823751B1 (en) * 2013-07-09 2023-07-05 Smart Eye AB Eye gaze imaging
US10115164B1 (en) 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
US9501878B2 (en) 2013-10-16 2016-11-22 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US9610955B2 (en) 2013-11-11 2017-04-04 Smartdrive Systems, Inc. Vehicle fuel consumption monitor and feedback systems
US8892310B1 (en) 2014-02-21 2014-11-18 Smartdrive Systems, Inc. System and method to detect execution of driving maneuvers
US9262924B2 (en) 2014-07-09 2016-02-16 Toyota Motor Engineering & Manufacturing North America, Inc. Adapting a warning output based on a driver's view
US9669759B2 (en) * 2014-09-12 2017-06-06 Yazaki Corporation In-vehicle device
DE102014221039A1 (de) * 2014-10-16 2016-04-21 Robert Bosch Gmbh Steuergerät für ein Kraftfahrzeug mit Kamera für Fahrergesicht und Verfahren zum Aufnehmen des Gesichtes eines Fahrzeuginsassen
US9663127B2 (en) 2014-10-28 2017-05-30 Smartdrive Systems, Inc. Rail vehicle event detection and recording system
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
JP6377501B2 (ja) * 2014-11-14 2018-08-22 トヨタ紡織株式会社 乗物の制御方法
KR101619651B1 (ko) 2014-11-26 2016-05-10 현대자동차주식회사 운전자 감시장치 및 그의 조명제어방법
WO2016103962A1 (ja) * 2014-12-26 2016-06-30 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
US9533687B2 (en) 2014-12-30 2017-01-03 Tk Holdings Inc. Occupant monitoring systems and methods
USD751437S1 (en) 2014-12-30 2016-03-15 Tk Holdings Inc. Vehicle occupant monitor
US10532659B2 (en) 2014-12-30 2020-01-14 Joyson Safety Systems Acquisition Llc Occupant monitoring systems and methods
US10614328B2 (en) 2014-12-30 2020-04-07 Joyson Safety Acquisition LLC Occupant monitoring systems and methods
US9679420B2 (en) 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
US20160362111A1 (en) * 2015-06-12 2016-12-15 Jaguar Land Rover Limited Driver awareness sensing and indicator control
DE102015225109A1 (de) * 2015-12-14 2017-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassieren von Augenöffnungsdaten zumindest eines Auges eines Insassen eines Fahrzeugs und Verfahren und Vorrichtung zum Erfassen einer Schläfrigkeit und/oder eines Sekundenschlafes eines Insassen eines Fahrzeugs
JP6649783B2 (ja) * 2016-01-28 2020-02-19 株式会社デンソーテン 車両制御装置、及び、車両制御方法
JP6514651B2 (ja) * 2016-02-15 2019-05-15 ルネサスエレクトロニクス株式会社 開眼度検出システム、居眠り検知システム、自動シャッタシステム、開眼度検出方法及び開眼度検出プログラム
CN107340849A (zh) * 2016-04-29 2017-11-10 和鑫光电股份有限公司 移动装置及其护眼控制方法
CN109074748B (zh) * 2016-05-11 2022-04-08 索尼公司 图像处理设备、图像处理方法和可移动体
CN109923368A (zh) * 2016-12-13 2019-06-21 金泰克斯公司 用于枪的生物统计识别***
JP6652090B2 (ja) * 2017-03-10 2020-02-19 オムロン株式会社 運転モード切替制御装置、システム、方法、およびプログラム
JP6756326B2 (ja) 2017-11-09 2020-09-16 株式会社デンソー 状態検出装置
US10924685B2 (en) * 2018-05-07 2021-02-16 Rubicon Products, LLC Night vision apparatus
CN108720851B (zh) * 2018-05-23 2021-06-29 释码融和(上海)信息科技有限公司 一种驾驶状态检测方法、移动终端及存储介质
CN109005320A (zh) * 2018-08-01 2018-12-14 惠州市德赛西威汽车电子股份有限公司 一种驾驶员监控红外摄像头装置以及图像亮度控制方法
CN109523787B (zh) * 2018-11-30 2021-06-29 公安部交通管理科学研究所 一种基于车辆通行轨迹的疲劳驾驶分析方法
US10836352B2 (en) * 2019-02-27 2020-11-17 Stc Corporation Co. Ltd Vehicle starting control system by using face perception data and method thereof
JP7183943B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ステアリングモジュール
US11254316B2 (en) * 2020-01-24 2022-02-22 Ford Global Technologies, Llc Driver distraction detection
JP7140819B2 (ja) * 2020-12-25 2022-09-21 本田技研工業株式会社 撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
JP2005301742A (ja) * 2004-04-13 2005-10-27 Denso Corp 運転者の外観認識システム
JP2006139701A (ja) * 2004-11-15 2006-06-01 Niles Co Ltd 眼の開度検出装置
JP2007251558A (ja) * 2006-03-15 2007-09-27 Omron Corp 画像処理装置および画像処理方法、並びにプログラム
JP2008027242A (ja) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc 対象物の部位判別装置及び性別判定装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101133A (ja) * 1994-09-30 1996-04-16 Suzuki Motor Corp 円筒形状物の継ぎ目検出装置
JPH09107499A (ja) 1995-10-11 1997-04-22 Canon Inc 撮像装置及びその画像処理方法
HK1053239A2 (en) * 2002-10-09 2003-09-26 Titanium Tech Ltd Apparatus and method for recognizing images
JP2004192345A (ja) * 2002-12-11 2004-07-08 Nissan Motor Co Ltd 運転者状態検出装置
US7091867B2 (en) * 2004-02-20 2006-08-15 Agilent Technologies, Inc. Wavelength selectivity enabling subject monitoring outside the subject's field of view
CN1680779A (zh) * 2005-02-04 2005-10-12 江苏大学 驾驶员疲劳监测方法及装置
CN101124612B (zh) * 2005-02-17 2012-06-20 富士通株式会社 图像处理方法、图像处理***、以及图像处理装置
JP4397415B2 (ja) * 2005-02-18 2010-01-13 富士通株式会社 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
US20060259206A1 (en) 2005-05-16 2006-11-16 Smith Matthew R Vehicle operator monitoring system and method
US7689008B2 (en) * 2005-06-10 2010-03-30 Delphi Technologies, Inc. System and method for detecting an eye

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921611A (ja) * 1995-07-06 1997-01-21 Mitsubishi Electric Corp 顔画像撮像装置
JP2005301742A (ja) * 2004-04-13 2005-10-27 Denso Corp 運転者の外観認識システム
JP2006139701A (ja) * 2004-11-15 2006-06-01 Niles Co Ltd 眼の開度検出装置
JP2007251558A (ja) * 2006-03-15 2007-09-27 Omron Corp 画像処理装置および画像処理方法、並びにプログラム
JP2008027242A (ja) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc 対象物の部位判別装置及び性別判定装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115505A (ja) * 2010-12-01 2012-06-21 Fujitsu Ltd 視線検出装置及び視線検出方法
JP2016512765A (ja) * 2013-03-18 2016-05-09 ミラメトリックス インコーポレイテッド 軸上視線追跡システム及び方法
JP2015095161A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 視線方向検知装置
WO2015072100A1 (ja) * 2013-11-13 2015-05-21 株式会社デンソー 視線方向検知装置
JP2018045386A (ja) * 2016-09-13 2018-03-22 株式会社デンソー 視線計測装置
WO2018051681A1 (ja) * 2016-09-13 2018-03-22 株式会社デンソー 視線計測装置
DE112017004596T5 (de) 2016-09-13 2019-07-11 Denso Corporation Sichtlinienmessvorrichtung
DE102019106262A1 (de) 2018-03-13 2019-09-19 Omron Corporation Abbildungsvorrichtung
JP2020204984A (ja) * 2019-06-19 2020-12-24 日産自動車株式会社 情報処理装置及び情報処理方法
JP7321787B2 (ja) 2019-06-19 2023-08-07 日産自動車株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
EP2288287B1 (en) 2012-04-25
CN101951828A (zh) 2011-01-19
RU2453884C1 (ru) 2012-06-20
ATE554697T1 (de) 2012-05-15
US20100220892A1 (en) 2010-09-02
CN101951828B (zh) 2012-10-03
WO2009138828A1 (en) 2009-11-19
JP4888838B2 (ja) 2012-02-29
EP2288287A1 (en) 2011-03-02
US8724858B2 (en) 2014-05-13

Similar Documents

Publication Publication Date Title
JP4888838B2 (ja) 運転者撮像装置および運転者撮像方法
US9123179B2 (en) Surrounding image display system and surrounding image display method for vehicle
JP5761074B2 (ja) 撮像制御装置及びプログラム
JP6470334B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
JP5233322B2 (ja) 情報処理装置および方法、並びに、プログラム
US20120161954A1 (en) Method and system for detecting a driving state of a driver in a vehicle
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
JP2008305203A (ja) 顔画像撮像装置
WO2017145645A1 (ja) 運転支援装置、運転支援方法、及び、運転支援プログラム
JP2007094716A (ja) 車両の運転支援装置
JP2011033928A (ja) 表示制御装置および表示制御プログラム
CN104780834A (zh) 生物体信息计测装置及使用该装置的输入装置
JP4840146B2 (ja) 眠気検知装置
JP2008067362A (ja) 画像処理装置および画像処理方法
JP2008135856A (ja) 物体認識装置
WO2015079657A1 (ja) 視認領域推定装置
JP2008167806A (ja) 眠気検知装置
JP2006350670A (ja) 夜間運転視界支援装置
CN109415020B (zh) 辉度控制装置、辉度控制***以及辉度控制方法
JP2009248812A (ja) 運転支援装置
JP2011087006A (ja) 車両用表示装置
JP2013103530A (ja) 状態監視装置
US11838656B2 (en) Imaging device and correction method for reducing image height dependency of a depth
JP5617678B2 (ja) 車両用表示装置
JP2009296355A (ja) 顔画像処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110412

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111031

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R151 Written notification of patent or utility model registration

Ref document number: 4888838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees