JP6708152B2 - 運転者状態推定装置、及び運転者状態推定方法 - Google Patents

運転者状態推定装置、及び運転者状態推定方法 Download PDF

Info

Publication number
JP6708152B2
JP6708152B2 JP2017048502A JP2017048502A JP6708152B2 JP 6708152 B2 JP6708152 B2 JP 6708152B2 JP 2017048502 A JP2017048502 A JP 2017048502A JP 2017048502 A JP2017048502 A JP 2017048502A JP 6708152 B2 JP6708152 B2 JP 6708152B2
Authority
JP
Japan
Prior art keywords
driver
face
image
center position
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017048502A
Other languages
English (en)
Other versions
JP2018151930A (ja
Inventor
由紀子 柳川
由紀子 柳川
匡史 日向
匡史 日向
相澤 知禎
知禎 相澤
航一 木下
航一 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017048502A priority Critical patent/JP6708152B2/ja
Priority to DE112017007237.9T priority patent/DE112017007237T5/de
Priority to CN201780084000.6A priority patent/CN110192224A/zh
Priority to US16/481,666 priority patent/US20190347499A1/en
Priority to PCT/JP2017/027244 priority patent/WO2018167995A1/ja
Publication of JP2018151930A publication Critical patent/JP2018151930A/ja
Application granted granted Critical
Publication of JP6708152B2 publication Critical patent/JP6708152B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は運転者状態推定装置、及び運転者状態推定方法に関し、より詳細には運転者の頭部の位置や車両前方正面に対する運転者の顔の向きなど、運転者の状態を推定することができる運転者状態推定装置、及び運転者状態推定方法に関する。
車室内カメラで撮影された運転者の画像から運転者の動作や視線などの状態を検知し、運転者に必要とされる情報の提示や警告などを行う技術が従来より開発されている。
また、近年開発が進められている自動運転システムでは、自動運転中においても、自動運転から手動運転への引き継ぎがスムーズに行えるように、運転者が運転操作可能な状態であるかどうかを推定しておく技術が必要になると考えられており、車室内カメラで撮像した画像を解析して、運転者の状態を推定する技術の開発が進められている。
運転者の状態を推定するためには、運転者の頭部位置や顔の向きを検出する技術が必要とされている。例えば、特許文献1には、車室内カメラで撮像された画像中における運転者の顔領域を検出し、検出した顔領域に基づいて、運転者の頭部位置を推定する技術が開示されている。
上記運転者の頭部位置の具体的な推定方法は、まず、車室内カメラに対する頭部位置の角度を検出する。該頭部位置の角度の検出方法は、画像上での顔領域の中心位置を検出し、該検出した顔領域の中心位置を頭部位置(頭部の中心位置)として、該顔領域の中心位置を通る頭部位置直線を求め、該頭部位置直線の角度(頭部位置の車室内カメラに対する角度)を決定する。
次に、頭部位置直線上の頭部位置を検出する。該頭部位置直線上の頭部位置の検出方法は、車室内カメラから所定距離に存在する場合の顔領域の標準大きさを記憶しておき、この標準大きさと実際に検出した顔領域の大きさとを比較して、車室内カメラから頭部位置までの距離を求める。そして、求めた距離だけ車室内カメラから離れた、頭部位置直線上の位置を頭部位置として推定するようになっている。
また、特許文献1記載の運転者の顔の向きの推定方法は、顔画像から特徴点(顔の各部位)を検出し、これら実際に検出された特徴点と、顔の向きが正面である場合の特徴点との変位量に基づいて運転者の顔の向きを推定するようになっている。
[発明が解決しようとする課題]
特許文献1記載の頭部位置の推定方法では、画像上での頭部位置(頭部の中心位置)を顔領域の中心位置を基準として検出しているが、顔領域の中心位置は顔の向きによって変わってしまう。そのため、頭の中心位置が同じ位置にあっても、顔の向きの違いより、画像上で検出される顔領域の中心位置(頭部位置)はそれぞれ異なる位置に検出される。そのため画像上で検出される頭部位置が実世界の頭部位置とは異なる位置に検出されてしまい、実世界における頭部位置を精度よく推定することができないという課題があった。
また、車両の運転席は、一般的に前後方向へ座席位置を調整できるようになっている。車室内カメラが、例えば、運転席の斜め前方に設置されている場合、運転者の顔の向きが正面に向いている場合でも、運転席の前後位置の違い、すなわち、運転者の頭部位置の違いによって、車室内カメラに写る運転者の顔の向き(角度)は異なる角度で検出されてしまう。具体的には、運転席を前寄りに位置させたときの方が、運転席を後寄りに位置させたときよりも、車室内カメラに写る運転者の顔の向き(角度)は大きく検出される。したがって、特許文献1記載の顔の向き推定方法では、運転席の前後位置(運転者の頭部位置)の違いに伴って変化する、車室内カメラに写る運転者の顔の向き(角度)の違いに対応できておらず、運転者の車両前方正面に対する顔の向きも正確に検出できていないという課題があった。
特開2014−218140号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、運転者の顔の向きの違いや運転席位置の違いによる影響を受けることなく、実世界における運転者の頭部の位置を画像から精度良く推定することができる運転者状態推定装置、及び運転者状態推定方法を提供することを目的としている。
上記目的を達成するために本発明に係る運転者状態推定装置(1)は、撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備え、
該少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えていることを特徴としている。
上記運転者状態推定装置(1)によれば、前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定するので、前記運転者の顔の向きの違いに関わらずに、前記画像中の前記運転者の頭部中心位置を精度良く推定することができる。前記画像中の前記運転者の頭部中心位置が精度良く推定されることにより、該頭部中心位置と、前記撮像部の仕様(画角や解像度など)、及び位置姿勢(角度や原点からの距離など)を含む情報とに基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を精度良く推定することができる。
また本発明に係る運転者状態推定装置(2)は、上記運転者状態推定装置(1)において、前記少なくとも1つのハードウェアプロセッサが、
前記距離推定部により推定された前記距離を用いて、前記運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴としている。
上記運転者状態推定装置(2)によれば、前記距離推定部で推定された前記距離に基づいて、前記運転者が運転操作可能な状態であるか否かを判定することができる。例えば、前記原点がハンドル位置となるように設定すれば、前記距離に基づいて、前記運転者がハンドルに手が届く範囲内にいる状態か否かを判定することができ、前記運転者の監視を適切に行うことができる。
また本発明に係る運転者状態推定装置(3)は、上記運転者状態推定装置(1)又は(2)において、前記少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出部と、
前記頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定部と、
前記顔の向き検出部で検出された前記運転者の顔の向きと、前記角度推定部で推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定部とを備えていることを特徴としている。
上記運転者状態推定装置(3)によれば、精度良く推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様(画角や解像度など)、及び位置姿勢(角度)とを含む情報とに基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を精度良く推定することができる。該推定された角度を用いることにより、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記撮像部に対する運転者の顔の向きから前記運転席の正面方向を基準とする前記運転者の顔の向きを精度良く推定することができる。
また本発明に係る運転者状態推定装置(4)は、上記運転者状態推定装置(3)において、前記少なくとも1つのハードウェアプロセッサが、前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態を判定する運転者状態判定部を備えていることを特徴としている。
上記運転者状態推定装置(4)によれば、前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態、例えば、脇見している状態などを精度良く判定することができ、前記運転者の監視を適切に行うことできる。
また本発明に係る運転者状態推定方法(1)は、運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいることを特徴としている。
上記運転者状態推定方法(1)によれば、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定することができる。該推定された距離を前記運転者が運転操作可能な状態かどうかの判定に利用することが可能となる。
また本発明に係る運転者状態推定方法(2)は、上記運転者状態推定方法(1)において、前記少なくとも1つのハードウェアプロセッサが、
前記撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出ステップと、
前記頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定ステップと、
前記顔の向き検出ステップにより検出された前記運転者の顔の向きと、前記角度推定ステップにより推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定ステップとを含んでいることを特徴としている。
上記運転者状態推定方法(2)によれば、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記撮像部に対する運転者の顔の向きから前記運転席の正面方向を基準とする前記運転者の顔の向きを精度良く推定することができる。
本発明の実施の形態に係る運転者状態推定装置を含む自動運転システムの要部を概略的に示したブロック図である。 実施の形態に係る運転者状態推定装置の構成を示すブロック図である。 実施の形態に係る運転者状態推定方法を説明するための車室内平面図である。 実施の形態に係る運転者状態推定装置で推定する画像中の頭部中心位置と運転席位置との関係について説明するためのイラスト図である。 実施の形態に係る運転者状態推定装置で推定する画像中の頭部中心位置と運転者の顔の向きとの関係などについて説明するためのイラスト図である。 実施の形態に係る運転者状態推定装置におけるプロセッサの行う処理動作を示したフローチャートである。
以下、本発明に係る運転者状態推定装置、及び運転者状態推定方法の実施の形態を図面に基づいて説明する。なお、以下に述べる実施の形態は、本発明の好適な具体例であり、技術的に種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
図1は、実施の形態に係る運転者状態推定装置を含む自動運転システムの要部を概略的に示したブロック図である。図2は、実施の形態に係る運転者状態推定装置の構成を示すブロック図である。
自動運転システム1は、車両を道路に沿って自動で走行させるためのシステムであり、運転者状態推定装置10、HMI(Human Machine Interface)40、及び自動運転制御装置50を含んで構成され、これら各装置が通信バス60を介して接続されている。なお、通信バス60には、自動運転や運転者による手動運転の制御に必要な各種センサや制御装置(図示せず)も接続されている。
運転者状態推定装置10は、撮像された画像から運転者の状態、具体的には、運転席の正面方向を基準とする運転者の顔の向きを推定する処理、ハンドル位置から運転者の頭部中心位置までの距離を推定する処理を行い、これら推定結果に基づいて運転者の位置姿勢などの状態を判定し、これら判定結果を出力する処理などを行う。
運転者状態推定装置10は、単眼カメラ11、CPU12、ROM13、RAM14、記憶部15、及び入出力インターフェース(I/F)16を含んで構成され、これら各部が通信バス17を介して接続されている。
撮像部としての単眼カメラ11は、運転席に着座している運転者の顔を含む画像を定期的(例えば、1秒間に30〜60回)に撮像可能なものであり、単眼のレンズ系、CCD又はCMOSなどの撮像素子、及び近赤外光を照射する近赤外LEDなどの赤外線照射器(いずれも図示せず)などを含んで構成されている。
CPU12は、ハードウェアプロセッサであり、ROM13に記憶されているプログラムを読み出し、該プログラムに基づいて単眼カメラ11から取得した画像データの各種処理などを行う。CPU12を複数装備してもよい。
ROM13には、図2に示す顔検出部22、頭部中心位置推定部23、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を、CPU12に実行させるためのプログラムや3次元(3D)顔形状モデル適合アルゴリズム24などが記憶されている。なお、CPU12で実行される前記プログラムの全部又は一部をROM13とは別の記憶部15や他の記憶媒体(図示せず)に記憶してもよい。
RAM14には、CPU12で実行される各種処理に必要なデータやROM13から読み出したプログラムなどが一時記憶される。
記憶部15は、単眼カメラ11で撮像された画像データを記憶する画像記憶部15aと、単眼カメラ11の画角や画素数(幅×縦)などの仕様情報、単眼カメラ11の取付位置や取付角度などの位置姿勢情報などを記憶する情報記憶部15bとを含んでいる。また、CPU12が、単眼カメラ11で撮像された画像データを記憶部15の一部である画像記憶部15aに記憶させる処理(記憶指示)や、画像記憶部15aから画像を読み出す処理(読み出し指示)を行うようにしてもよい。単眼カメラ11の取付位置や取付角度などの位置姿勢情報は、例えば、単眼カメラ11の設定メニューをHMI40で読み出せるように構成しておき、取付時に、前記設定メニューから予め入力設定できるようにしておけばよい。記憶部15は、例えば、EEPROM、フラッシュメモリなどの1つ以上の不揮発性の半導体メモリで構成されている。入出力インターフェース(I/F)16は、通信バス60を介して各種外部装置とのデータのやり取りを行うためのものである。
HMI40は、運転者状態推定装置10から送信されてきた信号に基づいて、運転者に脇見や運転姿勢等の状態を報知する処理、自動運転システム1の作動状況や自動運転の解除情報などを運転者に報知する処理、自動運転制御に関連する操作信号を自動運転制御装置50に出力する処理などを行う。HMI40は、例えば、運転者が視認しやすい位置に設けられた表示部41や音声出力部42の他、図示しない操作部や音声入力部などを含んで構成されている。
自動運転制御装置50は、図示しない動力源制御装置、操舵制御装置、制動制御装置、周辺監視センサ、ナビゲーションシステム、外部と通信を行う通信装置などにも接続され、これら各部から取得した情報に基づいて、自動運転を行うための制御信号を各制御装置へ出力して、車両の自動走行制御(自動操舵制御や自動速度調整制御など)を行う。
図2に示した運転者状態推定装置10の各部を説明する前に、図3〜図5を用いて、運転者状態推定装置10による運転者状態推定方法について説明する。
図3は、運転者状態推定装置10による運転者状態推定方法を説明するための車室内平面図である。図4は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転席位置との関係などについて説明するためのイラスト図である。図5は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転者の顔の向きとの関係などについて説明するためのイラスト図である。
図3に示すように、運転者30が運転席31に着座しているとする。運転席31の正面前方にはハンドル32が設置されており、運転席31は、前後方向に位置調整可能となっている。単眼カメラ11は、運転席31の左斜め前方に設置され、運転者の顔を含む画像を撮像可能に設置されている。なお、単眼カメラ11の設置位置姿勢はこの形態に限定されるものではない。
本実施の形態では、ハンドル32の中心位置を原点O、原点Oとシート中心Sとを結ぶ線分をL1、原点Oで線分L1と直交する線分をL2とした場合、単眼カメラ11の取付角度は、線分L2に対して角度θに設定され、単眼カメラ11の撮像面の中心Iと原点Oとの距離はAに設定されている。また、線分L1上に実世界における運転者30の頭部中心位置Hがあるものとする。原点Oは、単眼カメラ11と実世界における運転者30の頭部中心位置Hとを結ぶ線分L3を斜辺とする直角三角形の直角の頂点となっている。なお、原点Oの位置は、ハンドル32の中心位置以外に設定してもよい。
また、単眼カメラ11の画角をα、画像11aの幅方向の画素数をWidthで示している。画像11a中の運転者30Aの頭部中心位置(幅方向の画素数)をx、画像11a中の運転者30Aの頭部中心位置xを示す線分(垂直線)をLxで示すものとする。
また、単眼カメラ11に対する実世界における運転者30の顔の向き(角度)をφ1、運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度をφ2、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)をφ3として説明する。
運転者状態推定装置10では、撮像された画像11a中の運転者30Aの頭部中心位置xを、後述する3次元顔形状モデルのフィッティング処理を実行して推定する。
運転者30Aの頭部中心位置xを推定することができれば、既知の情報、すなわち、単眼カメラ11の仕様(画角α、幅方向の画素数Width)、単眼カメラ11の位置姿勢(取付角度θ、原点Oからの距離A)を利用して、以下の式1で角度φ2(線分L3と線分L1とのなす角度)を求めることができる。なお、単眼カメラ11のレンズ歪み等を厳密に考慮する場合は、内部パラメータを用いたキャリブレーションを行う。
式1:φ2=90°−((90°−θ)−α/2+α×x/Width)
=θ+α/2−α×x/Width
そして、後述する3次元顔形状モデルのフィッティング処理などで求めた、単眼カメラ11に対する運転者30の顔の向き(角度φ1)を用いて、
式2:角度φ1−角度φ2を計算することで、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めることができる。
運転席31の座席位置(前後位置)、すなわち、運転者30の頭部位置で異なる角度になる角度φ2を求め、この角度φ2を用いて、角度φ1(単眼カメラ11に対する顔の向き)を補正することにより、運転席31の座席位置に関わらずに、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を正確に求めることが可能となる。
また、角度φ2を求めることができれば、原点O、撮像面の中心I、頭部中心位置Hを結んだ三角形が、原点Oを直角の頂点とする直角三角形となるため、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、以下の式3により、運転者30の頭部中心位置Hから原点O(ハンドル32)までの距離Bを推定することができる。推定された距離Bを用いて、運転者30がハンドル操作可能な状態(ハンドル操作可能な範囲内にいる)か否かを判定することが可能となる。
式3:B=A/tanφ2
(なお、φ2=θ+α/2−α×x/Width)
(但し、θ+α/2>α×x/Widthとする。)
図4の(a)〜(d)には、運転席31の位置を段階的に前方へ移動させたときの車室内平面図と、単眼カメラ11で撮像された画像11aとの関係を示している。いずれも運転者30は、車両前方正面を向いている状態である。画像11aには、画像11a中の運転者30Aの頭部中心位置xを線分Lxで示している。
運転席31を前方へ移動させることにより、単眼カメラ11に対する運転者30の顔の向き(角度)φ1は次第に大きくなる。したがって、角度φ1だけでは、運転者30が、車両前方正面を向いているのかどうかを正確に把握することができない。
一方、運転席31を前方へ移動させることにより、実世界における運転者30の頭部中心位置Hも前方に移動し、画像11a中の運転者30Aの頭部中心位置xを示す線分Lxは、画像11a中を左側に移動してゆく。画像11a中の頭部中心位置xを示す線分Lxが左側に移動するにしたがって角度φ2(線分L3と線分L1とのなす角度)は大きくなる。
したがって、上記した式2:角度φ1−角度φ2を計算して、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めると、この場合、φ3=φ1−φ2の値は、約0°となり、いずれの座席位置でも、運転者30は車両前方正面を向いていることが推定可能となる。
また、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、上記した式3より、運転者30の頭部中心位置Hから原点O(ハンドル)までの距離Bも推定することが可能となる。
図5の(a)〜(c)には、運転席31が同じ位置にあり、運転者30の顔の向きを変化させたときの車室内平面図と、単眼カメラ11で撮像された画像11aと、該画像11aにフィッティングさせる3次元顔形状モデル33及び頭部中心位置xを示す線分Lxと、3次元顔形状モデル33の画像11aへのフィッティング処理により推定された運転者30Aの頭部中心位置xを線分Lxで示した画像とを示している。
図5(a)は、運転者30の顔の向きが車両前方正面方向に対して右側を向いている場合を示している。図5(b)は、運転者30の顔の向きが車両前方正面を向いている場合を示している。図5(c)は、運転者30の顔の向きが車両前方正面方向に対して左側を向いている場合を示している。
図5(a)〜(c)の画像11aに示すように、運転者30Aの顔の目、鼻、口などの器官点の位置は、顔の向きによって変化するが、頭部中心位置x(線分Lx)は、顔の向きによって変化しない。なお、運転席31が同じ位置にある場合、頭部中心位置x(線分Lx)は運転者30の性別(男性、女性)や体格等の違いによる差(ずれ)はなく、略同位置となる。
運転者30が顔の向きを変えると、単眼カメラ11に対する運転者30の顔の向き(角度)φ1は変化する。したがって、角度φ1だけでは、運転者30が、どの方向を向いているのかを正確に把握することができない。
一方、運転者30が顔の向きを変えた場合であっても、実世界における運転者30の頭部中心位置Hと、画像11a中の運転者30Aの頭部中心位置xを示す線分Lxの位置は、殆ど変化しない。したがって、上記した式1で求められる角度φ2(線分L3と線分L1とのなす角度)は、運転者30が顔の向きを変えた場合であっても、略同じ値を示す。
したがって、上記した式2:角度φ1−角度φ2を計算して、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めることにより、運転席31の正面方向に対する運転者30の顔の向き(角度)を略正確に推定することが可能となる。また、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、上記した式3により、運転者30の頭部中心位置Hから原点O(ハンドル)までの距離Bも推定することが可能となる。
次に運転者状態推定装置10の具体的構成について、図2に示したブロック図に基づいて説明する。
運転者状態推定装置10は、ROM13に記憶された各種のプログラムがRAM14に読出され、CPU12で実行されることによって、画像入力部21、顔検出部22、頭部中心位置推定部23、3次元(3D)顔形状モデル適合アルゴリズム24、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を行う装置として成立する。
画像入力部21は、単眼カメラ11で撮像された運転者の顔を含む画像データを画像記憶部15aから読み出してRAM14に取り込む処理を行う。
顔検出部22は、単眼カメラ11で撮像された画像から運転者の顔を検出する処理を行う。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法が採用される。例えば、顔の局所的な領域の明暗差(輝度差)やエッジ強度、これら局所的領域間の関連性(共起性)を特徴量として捉え、これら多数の特徴量を組み合わせて学習することで検出器を作成し、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器を備えることで、顔の領域検出を高速に行うことが可能となる。また、顔の向きや傾きに対応するために、顔の向きや傾きごとに別々に学習させた複数の検出器を備えるようにしてもよい。
頭部中心位置推定部23は、画像11a中の運転者30Aの顔に3次元顔形状モデル33(図5を参照)をフィッティング(適合)させ、該フィッティングさせた3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを推定する処理を行う。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術は、特開2007−249280号公報、特許第4501937号公報などに記載された技術を好適に用いることができるが、これに限定されるものではない。
3次元顔形状モデルを画像中の運転者の顔にフィッティングさせる技術の一例の概略を説明する。
予め学習処理により、3次元顔形状モデルの取得、レティナ構造によるサンプリング、及び正準層間分析による誤差推定行列の取得を行い、これら学習処理による学習結果(誤差推定行列、正規化パラメータなど)がROM13内の3D顔形状モデル適合アルゴリズム24に記憶されている。
3次元顔形状モデルは、多数の人の顔画像に対し、目尻、目頭、鼻の穴の両端、唇の両端など顔器官の特徴的器官点を入力し、これらの平均3次元座標間を結ぶことで作成される。各特徴的器官点では、その特徴的器官点の検出精度を高めるために、レティナ構造によるサンプリングが実施される。レティナ構造とは、着目する特徴的器官点の周囲に放射状に離散的(中心に近づくほど密で、離れるほど疎な点列)に配置された網目状のサンプリング構造のことをいう。
3次元顔形状モデルは、顔を正面から見たときの左右水平方向の軸をX軸、上下垂直方向の軸をY軸、奥行き(前後)方向の軸をZ軸とした場合の、X軸回りの回転(pitch)、Y軸回りの回転(yaw)、Z軸回りの回転(roll)、拡大縮小などの複数のパラメータを用いて自由自在に変形させることができる。
誤差推定行列は、3次元顔形状モデルの各特徴的器官点が誤った位置(検出すべき特徴的器官点と異なる位置)に配置されたときにどの方向に修正すべきかの相関関係についての学習結果(特徴的器官点での特徴量から、正解位置からのパラメータの変化分への変換行列)である。
誤差推定行列の取得方法は、正解位置にある3次元顔形状モデル(正解モデル)の変形パラメータ(正解モデルパラメータ)を作成し、次に正解モデルパラメータを乱数などにより一定範囲内でずらしたずれ配置モデルを作成する。次に、ずれ配置モデルに基づいて取得したサンプリング特徴量と、ずれ配置モデルと正解モデルとの差(パラメータの変化分)とを組として相関関係についての学習結果として取得する。
3次元顔形状モデル33の画像11a中の運転者30Aの顔へのフィッティング処理について説明する。顔検出部22で検出された顔検出の結果に基づき、顔の位置、向き、大きさなどに対して適切な位置に3次元顔形状モデル33を初期配置する。その初期位置における特徴的器官点の位置を検出し、その特徴的器官点での特徴量を算出する。その特徴量を誤差推定行列に入力し、正解位置近傍への形状変化パラメータの変化分を算出する。現在位置での3次元顔形状モデル33の形状変化パラメータに、上記算出された正解位置近傍への形状変化パラメータの変化分を加算する。これら処理により3次元顔形状モデル33が画像上の正解位置近傍へ高速にフィッティングされる。上記した3次元顔形状モデルの制御方法を、Active Structured Appearance Model (ASAM)と呼ぶ。
また、3次元顔形状モデル33を用いているため、顔の器官の位置や形状だけでなく、単眼カメラ11に対する顔姿勢、すなわち、顔が向いている方向やその角度φ1を直接求めることが可能となっている。
また、3次元顔形状モデル33から3次元での頭部中心位置、例えば、頭部を球体と仮定したときの、該球体の中心位置(中心軸)を推定し、2次元の画像11a上に射影して、画像11a中の運転者30Aの頭部中心位置xを推定する。3次元での頭部中心位置を2次元平面に射影する方法としては、平行投影法、単点透視投影などの透視投影法などの各種の手法が採用され得る。
角度推定部25は、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、情報記憶部15bに記憶されている単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θ)とを含む情報に基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度φ2を上記した式1(φ2=θ+α/2−α×x/Width)に基づいて推定する。
顔の向き推定部26は、顔検出部22での検出処理、又は頭部中心位置推定部23での3次元顔形状モデルフィッティング処理時に検出された運転者の顔の向き(角度φ1)と、角度推定部25で推定された角度φ2とに基づいて、運転席31の正面方向(原点Oを通る線分L1)を基準とする運転者30の顔の向き(角度φ3=φ1−φ2)を推定する。
脇見判定部27は、顔の向き推定部26で推定された運転者30の顔の向き(角度φ3)に基づいて、例えば、ROM13又は情報記憶部15bに記憶された、脇見状態ではない角度範囲をRAM14に読み出し、比較演算を行うことにより脇見状態であるか否かを判定し、該判定結果を示す信号をHMI40や自動運転制御装置50へ出力する。
距離推定部28は、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、情報記憶部15bに記憶されている単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θと距離A)とを含む情報(換言すれば、角度φ2と距離A)に基づいて、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを上記した式3(B=A/tanφ2)に基づいて推定する。
運転操作可否判定部29は、距離推定部28で推定された距離Bに基づいて、運転者30が運転操作可能な状態であるか否か、例えば、ROM13又は情報記憶部15bに記憶された、適切なハンドル操作が可能な範囲をRAM14に読み出し、比較演算を行うことにより、運転者30がハンドル32に手が届く範囲内にいるか否かを判定し、該判定結果を示す信号をHMI40や自動運転制御装置50へ出力する。
図6は、実施の形態に係る運転者状態推定装置10におけるCPU12の行う処理動作を示したフローチャートである。単眼カメラ11では、例えば、毎秒30〜60フレームの画像が撮像され、各フレーム、又は一定間隔のフレーム毎に本処理が行われる。
まず、ステップS1では、単眼カメラ11で撮像された画像11a(運転者の顔を含む画像)データを画像記憶部15aから取得し、ステップS2で、取得した画像11aから運転者30Aの顔(顔領域、顔の向きなど)を検出する処理を行う。
ステップS3では、検出された画像11a中の顔の位置に対して適切な位置(初期位置)に3次元顔形状モデル33を配置する。ステップS4では、初期位置における各特徴的器官点の位置を求め、レティナ構造に基づき各特徴的器官点の特徴量を取得する。
ステップS5では、取得した特徴量を誤差推定行列に入力し、3次元顔形状モデル33と正解モデルパラメータとの誤差推定量を取得する。ステップS6では、現在位置での3次元顔形状モデル33の形状変化パラメータに上記誤差推定量を加算し、正解モデルパラメータの推定値を取得する。
ステップS7では、取得した正解モデルパラメータが正常範囲内であり、処理が収束したか否かを判断する。ステップS7において、処理が収束していないと判断すれば、ステップS4に戻り、取得した正解モデルパラメータに基づいて作成した新たな3次元顔形状モデル33の各特徴的器官点の特徴量を取得する。一方ステップS7において、処理が収束したと判断すればステップS8に進み、正解位置近傍への3次元顔形状モデル33の配置を完了する。
ステップS9では、正解位置近傍に配置された3次元顔形状モデル33のパラメータに含まれる相似変換(平行移動、回転)パラメータから単眼カメラ11に対する運転者30の顔の向き(角度φ1)を求める。単眼カメラ11に対して右向き角度は+(プラス)、左向き角度は−(マイナス)で示すものとする。
ステップS10では、3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを求める。例えば、3次元顔形状モデル33から3次元での頭部中心位置(頭部を球体と仮定し、該球体の中心位置)を推定し、2次元の画像11a上に射影して、画像11a中の運転者30Aの頭部中心位置xを推定する。
次のステップS11では、ステップS9で推定された画像11a中の運転者30Aの頭部中心位置xと、単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θ)とを含む情報に基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度φ2を上記した式1に基づいて推定する。
次のステップS12では、運転席31の正面方向(原点O)を基準とする運転者30の顔の向き(角度φ3)を推定する。具体的には、ステップS9で求めた単眼カメラ11に対する運転者30の顔の向き(角度φ1)とステップS11で推定した角度φ2(線分L3と線分L1とのなす角)との差の(φ1−φ2)を求める。運転席31の正面方向(原点O)に対して右向き角度は+(プラス)、左向き角度は−(マイナス)で示すものとする。
ステップS13では、RAM13又は情報記憶部15bに記憶された、脇見状態ではない角度範囲を読み出し、比較演算を行うことにより、角度φ3が、脇見状態ではない角度範囲内(−φ<φ3<+φ)であるか否かを判定する。−φ、+φは、脇見状態であると判定する角度を示す。ステップS13において、脇見状態ではない(−φ<φ3<+φである)と判定すればステップS15に進む一方、脇見状態である(−φ<φ3<+φではない)と判定すればステップS14に進む。
ステップS14では、HMI40や自動運転制御装置50に脇見状態信号を出力する。
HMI40では、脇見状態信号を入力した場合、例えば、表示部41に脇見警告表示や、音声出力部42より脇見警告アナウンスを実行する。また、自動運転制御装置50では、脇見状態信号を入力した場合、例えば、減速制御などを実行する。
ステップS15では、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを上記した式3(B=A/tanφ2)に基づいて推定する。
ステップS16では、RAM13又は情報記憶部15bに記憶された、適切なハンドル操作が可能な範囲を読み出し、比較演算を行うことにより、距離Bが、適切なハンドル操作が可能な範囲内(距離D<距離B<距離D)であるか否かを判定する。例えば、距離Dは40cm、距離Dは70cm程度の値に設定することができる。ステップS16において、距離Bが、適切なハンドル操作が可能な範囲内であると判定すれば、その後処理を終える一方、距離Bが、適切なハンドル操作が可能な範囲内ではないと判定すればステップS17に進む。
ステップS17では、HMI40や自動運転制御装置50に運転操作不可信号を出力し、その後処理を終える。HMI40では、運転操作不可信号を入力した場合、例えば、表示部41に運転姿勢や座席位置を警告する表示や、音声出力部42より運転姿勢や座席位置を警告するアナウンスを実行する。また、自動運転制御装置50では、運転操作不可信号を入力した場合、例えば、減速制御などを実行する。なお、ステップS12〜S14の処理と、ステップS15〜S17の処理の順序を入れ替えてもよく、また、経時的に異なるタイミングでステップS12〜S14の処理と、ステップS15〜S17の処理とを別々に実施するようにしてもよい。
実施の形態に係る運転者状態推定装置10によれば、画像11a中の運転者30Aの顔にフィッティングさせた3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを推定するので、図5で説明したように、運転者30の顔の向きの違いに関わらずに、画像11a中の運転者30Aの頭部中心位置xを精度良く推定することができる。
画像11a中の運転者30Aの頭部中心位置xを精度良く推定できることにより、頭部中心位置xと、既知の情報である単眼カメラ11の仕様情報(画角α、幅方向の画素数Width)、及び位置姿勢情報(角度θ)とに基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(原点Oを通る線分L1)とのなす角度φ2を精度良く推定することができる。
そして、角度φ2を用いることにより、運転席31の位置(運転者30の頭部位置)の違いや運転者30の顔の向きの違いの影響を受けることなく、単眼カメラ11に対する運転者の顔の向き(角度φ1)から運転席31の正面方向(原点O)を基準とする運転者30の顔の向き(φ3)を精度良く推定することができる。
また、顔の向き推定部26で推定された運転者の顔の向き(角度φ3)に基づいて、実世界の運転者30の状態、例えば、脇見している状態などを精度良く判定することができる。
また、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、既知の情報である単眼カメラ11の仕様情報(画角α、幅方向の画素数Width)、及び位置姿勢情報(角度θや原点Oからの距離Aなど)とに基づいて、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを精度良く推定することができる。そして、距離推定部28で推定された距離Bに基づいて、運転者30が適切なハンドル操作が可能な範囲内にいるか否かを判定することができる。
運転者状態推定装置10によれば、単眼カメラ11に加えて別のセンサを設けることなく、上記した運転者までの距離Bや運転者の顔の向き(角度φ3)を精度良く推定することができ、装置構成の簡素化を図ることができ、また、前記別のセンサを設ける必要がないため、それに伴う追加の処理も不要となり、CPU12にかかる負荷を低減させることができ、装置の小型化や低コスト化を図ることができる。
運転者状態推定装置10が自動運転システム1に搭載されることにより、運転者に自動運転の監視を適切に実行させることができ、自動運転での走行制御が困難状況になっても、手動運転への引き継ぎを迅速かつ安全に行うことができ、自動運転システム1の安全性を高めることができる。
(付記1)
撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備え、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示部と、
前記画像記憶部から前記画像を読み出す読み出し指示部と、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えている運転者状態推定装置。
(付記2)
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示ステップと、
前記画像記憶部から前記画像を読み出す読み出しステップと、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいる運転者状態推定方法。
10 運転者状態推定装置
11 単眼カメラ
11a 画像
12 CPU
13 ROM
14 RAM
15 記憶部
15a 画像記憶部
15b 情報記憶部
21 画像入力部
22 顔検出部
23 頭部中心位置推定部
24 3D顔形状モデル適合アルゴリズム
25 角度推定部
26 顔の向き推定部
27 脇見判定部
28 距離推定部
29 運転操作可否判定部
30 実世界の運転者
30A 画像中の運転者
31 運転席
32 ハンドル
Lx 線分(画像中の頭部中心位置xを示す)
O 原点
S シート中心
H 実世界における運転者の頭部中心位置
I 撮像面の中心
L1、L2、L3 線分
α 画角
θ 単眼カメラの取付角度

Claims (6)

  1. 撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
    運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
    少なくとも1つのハードウェアプロセッサとを備え、
    該少なくとも1つのハードウェアプロセッサが、
    前記撮像部により撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
    該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えていることを特徴とする運転者状態推定装置。
  2. 前記少なくとも1つのハードウェアプロセッサが、
    前記距離推定部により推定された前記距離を用いて、前記運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴とする請求項1記載の運転者状態推定装置。
  3. 前記少なくとも1つのハードウェアプロセッサが、
    前記撮像部により撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出部と、
    前記頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定部と、
    前記顔の向き検出部で検出された前記運転者の顔の向きと、前記角度推定部で推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定部とを備えていることを特徴とする請求項1又は請求項2記載の運転者状態推定装置。
  4. 前記少なくとも1つのハードウェアプロセッサが、
    前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態を判定する運転者状態判定部を備えていることを特徴とする請求項3記載の運転者状態推定装置。
  5. 運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
    少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
    前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
    前記少なくとも1つのハードウェアプロセッサが、
    前記撮像部で撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
    該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいることを特徴とする運転者状態推定方法。
  6. 前記少なくとも1つのハードウェアプロセッサが、
    前記撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出ステップと、
    前記頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定ステップと、
    前記顔の向き検出ステップにより検出された前記運転者の顔の向きと、前記角度推定ステップにより推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定ステップとを含んでいることを特徴とする請求項5記載の運転者状態推定方法。
JP2017048502A 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法 Active JP6708152B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017048502A JP6708152B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法
DE112017007237.9T DE112017007237T5 (de) 2017-03-14 2017-07-27 Fahrerzustandsabschätzungsvorrichtung und fahrerzustandsabschätzungsverfahren
CN201780084000.6A CN110192224A (zh) 2017-03-14 2017-07-27 驾驶员状态推断装置以及驾驶员状态推断方法
US16/481,666 US20190347499A1 (en) 2017-03-14 2017-07-27 Driver state estimation device and driver state estimation method
PCT/JP2017/027244 WO2018167995A1 (ja) 2017-03-14 2017-07-27 運転者状態推定装置、及び運転者状態推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048502A JP6708152B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法

Publications (2)

Publication Number Publication Date
JP2018151930A JP2018151930A (ja) 2018-09-27
JP6708152B2 true JP6708152B2 (ja) 2020-06-10

Family

ID=63523754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048502A Active JP6708152B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法

Country Status (5)

Country Link
US (1) US20190347499A1 (ja)
JP (1) JP6708152B2 (ja)
CN (1) CN110192224A (ja)
DE (1) DE112017007237T5 (ja)
WO (1) WO2018167995A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6785175B2 (ja) * 2017-03-27 2020-11-18 日産自動車株式会社 ドライバモニタ方法及びドライバモニタ装置
US11491940B2 (en) * 2019-04-19 2022-11-08 GM Global Technology Operations LLC System and method for detecting improper posture of an occupant using a seatbelt restraint system
CN113247010A (zh) * 2021-05-11 2021-08-13 上汽通用五菱汽车股份有限公司 巡航车速控制方法、车辆及计算机可读存储介质
US11724703B2 (en) * 2021-07-01 2023-08-15 Harman International Industries, Incorporated Method and system for driver posture monitoring

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1191397A (ja) * 1997-09-22 1999-04-06 Toyota Motor Corp 自動走行車両制御装置
JP4501708B2 (ja) * 2005-02-02 2010-07-14 トヨタ自動車株式会社 運転者の顔向き判定装置
JP4867729B2 (ja) * 2006-03-14 2012-02-01 オムロン株式会社 情報処理装置および方法、記録媒体、並びに、プログラム
JP4922715B2 (ja) * 2006-09-28 2012-04-25 タカタ株式会社 乗員検出システム、警報システム、制動システム、車両
JP5262570B2 (ja) * 2008-10-22 2013-08-14 トヨタ自動車株式会社 車両デバイス制御装置
US9248796B2 (en) * 2011-10-06 2016-02-02 Honda Motor Co., Ltd. Visually-distracted-driving detection device
JP5500183B2 (ja) * 2012-01-12 2014-05-21 株式会社デンソー 車両用衝突安全制御装置
JP2014218140A (ja) 2013-05-07 2014-11-20 株式会社デンソー 運転者状態監視装置、および運転者状態監視方法
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
CN106471556B (zh) * 2014-06-23 2021-11-16 株式会社电装 驾驶员的驾驶不能状态检测装置
CN204452046U (zh) * 2015-03-17 2015-07-08 山东理工大学 一种长途驾驶防瞌睡装置
CN105354987B (zh) * 2015-11-26 2018-06-08 南京工程学院 车载型疲劳驾驶检测与身份认证装置及其检测方法

Also Published As

Publication number Publication date
JP2018151930A (ja) 2018-09-27
US20190347499A1 (en) 2019-11-14
WO2018167995A1 (ja) 2018-09-20
CN110192224A (zh) 2019-08-30
DE112017007237T5 (de) 2019-12-12

Similar Documents

Publication Publication Date Title
US10455882B2 (en) Method and system for providing rear collision warning within a helmet
JP6708152B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP6950346B2 (ja) 運転者状態把握装置、運転者状態把握システム、及び運転者状態把握方法
WO2010035472A1 (ja) 視線方向判定装置及び視線方向判定方法
JP5273030B2 (ja) 顔特徴点検出装置および眠気検出装置
JP2008002838A (ja) 車両乗員検出システム、作動装置制御システム、車両
JPWO2008007781A1 (ja) 視線方向検出装置および視線方向検出方法
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
WO2015079657A1 (ja) 視認領域推定装置
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
WO2019176492A1 (ja) 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
US20210374443A1 (en) Driver attention state estimation
US20190266743A1 (en) Occupant monitoring apparatus
JP2007229814A (ja) 自律移動型ロボット
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
CN109415020B (zh) 辉度控制装置、辉度控制***以及辉度控制方法
JP2005182452A (ja) 顔の向き検知装置
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
JP2012046081A (ja) 走行状態判定装置
JP2007226726A (ja) 熱画像処理装置
JP2009287936A (ja) 運転者眼球位置検出装置
CN114103961B (zh) 面部信息获取装置以及面部信息获取方法
CN115526897A (zh) 特高压换流站消防机器人火焰定位方法及***
JP6737213B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP5430213B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6708152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250