JP7232008B2 - 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム - Google Patents

乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム Download PDF

Info

Publication number
JP7232008B2
JP7232008B2 JP2018181801A JP2018181801A JP7232008B2 JP 7232008 B2 JP7232008 B2 JP 7232008B2 JP 2018181801 A JP2018181801 A JP 2018181801A JP 2018181801 A JP2018181801 A JP 2018181801A JP 7232008 B2 JP7232008 B2 JP 7232008B2
Authority
JP
Japan
Prior art keywords
face
image
occupant
information
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018181801A
Other languages
English (en)
Other versions
JP2020052755A (ja
Inventor
晋 大須賀
哲也 服部
善之 山田
健 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018181801A priority Critical patent/JP7232008B2/ja
Priority to US16/580,562 priority patent/US11501561B2/en
Priority to DE102019125919.3A priority patent/DE102019125919A1/de
Publication of JP2020052755A publication Critical patent/JP2020052755A/ja
Application granted granted Critical
Publication of JP7232008B2 publication Critical patent/JP7232008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラムに関する。
従来、車両の乗員の顔を撮像することで得られる撮像画像に基づいて、乗員の顔に関する顔情報の検出(および検出された顔情報のトラッキング)を含む乗員モニタリング処理を実行することで、乗員の顔の状態変化をモニタリングする技術が知られている。このような従来の技術では、マスクやサングラスなどといった装着物によって乗員の顔の一部が隠されている場合、装着物の着用状況に応じて異なる態様で乗員モニタリング処理が実行されうる。
特開2010-97379号公報
上記のような従来の技術において、乗員の顔の一部が隠されるという状況は、マスクやサングラスなどといった装着物だけでなく、乗員の手や携帯電話などといった、装着物ではない非装着物によっても発生しうる。しかしながら、上記のような従来の技術は、乗員の顔の一部が非装着物によって隠されるという状況を想定していないので、乗員の顔の一部が隠されている場合、その隠れの原因が装着物であるか非装着物であるかに関わらず、同一の態様で乗員モニタリング処理が実行されると考えられる。
ここで、一般に、装着物と非装着物とでは、乗員の顔の隠れ具合などが異なる。たとえば、装着物によって隠れる顔の部位は、装着物の種類に応じて一定に定まる一方、非装着物によって隠される顔の部位は、非装着物の種類や時間などに応じて様々に変化しうるので、一定に定まりにくい。したがって、乗員の顔の一部が装着物によって隠されている場合と、乗員の顔の一部が非装着物によって隠されている場合と、においてそれぞれ同一の態様で乗員モニタリング処理を実行すると、乗員モニタリング処理の精度が低下することがある。
そこで、本開示の課題の一つは、乗員モニタリング処理の精度の向上を実現することが可能な乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラムを提供することである。
本開示の一例としての乗員モニタリング装置は、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、取得部により取得された撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、判別部による判別結果に応じて異なる態様で、撮像画像に基づいて乗員の顔に関する顔情報を検出し、検出結果に基づいて乗員の顔の状態変化をモニタリングする処理部と、を備える。前記処理部は、前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する。
上述した乗員モニタリング装置によれば、乗員の顔の一部が装着物によって隠されている場合と、乗員の顔の一部が非装着物によって隠されている場合と、のそれぞれにおいて、顔情報を検出する態様を異ならせることができるので、乗員モニタリング処理の精度を向上させることができる。また、非装着物による顔の隠れ具合に応じて、顔情報を適切に検出することができる。また、非装着物によって隠されていない顔の部位に関する情報を、顔情報として適切に検出することができる。また、目情報および口情報が検出されない場合であっても、少なくとも表情情報は検出することができる。
上述した乗員モニタリング装置において、処理部は、撮像画像が第1の画像に該当すると判別部により判別された場合、顔の全体に対して予め設定された複数の特徴点のうち、装着物によって隠されていない顔の部位に対応した1以上の特徴点に基づいて顔情報を検出し、撮像画像が第2の画像に該当すると判別部により判別された場合、複数の特徴点に基づいて顔情報を検出する。このような構成によれば、着目すべき顔の部位が一定に定まりやすい前者の場合は、特定の部位に対応した特定の特徴点を選択的に考慮して、顔情報を適切に検出することができ、着目すべき顔の部位が一定に定まりにくい後者の場合は、顔の全体に対応した複数の特徴点をまんべんなく考慮して、顔情報を適切に検出することができる。
また、本開示の一例としての乗員モニタリング装置は、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、を備える。処理部は、撮像画像が第1の画像に該当すると判別部により判別された場合、当該第1の画像の特徴と、乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、顔情報を検出し、撮像画像が第2の画像に該当すると判別部により判別された場合、当該第2の画像の特徴のみに基づいて、顔情報を検出する。このような構成によれば、状況に応じてフィッティングを実行するか否かを切り替えることで、状況に応じて適切な態様で顔情報を検出することができる。
また、本開示の一例としての乗員モニタリング装置は、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、を備える。取得部は、撮像画像を継続的に複数回取得し、処理部は、撮像画像が第1の画像に該当すると判別部により判別された場合、顔情報を検出した後、当該顔情報のトラッキングを実行し、撮像画像が第2の画像に該当すると判別部により判別された場合、顔情報を検出した後、当該顔情報のトラッキングを実行することなく、取得部により次に取得される撮像画像を対象とした判別部による判別結果に応じて異なる態様で、顔情報を検出する。このような構成によれば、着目すべき顔の部位が一定に定まりやすいためトラッキングを実行しやすい前者の場合と、着目すべき顔の部位が一定に定まりにくいためトラッキングを実行しにくい後者の場合とで、トラッキングを実行するか否かを適切に切り替えることができる。
また、本開示の一例としての乗員モニタリング装置は、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、を備える。判別部は、撮像画像と同様の情報を含む学習用画像と、当該学習用画像が第1の画像と第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、取得部により取得された撮像画像が第1の画像と第2の画像とのいずれに該当するかを判別する。このような構成によれば、学習済みモデルに基づいて、撮像画像の判別を容易に実行することができる。
本開示の他の一例としての乗員モニタリング方法は、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、取得ステップにおいて取得された撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、判別ステップにおける判別結果に応じて異なる態様で、撮像画像に基づいて乗員の顔に関する顔情報を検出し、検出結果に基づいて乗員の顔の状態変化をモニタリングする処理ステップと、を備える。前記処理ステップは、前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する。
上述した乗員モニタリング方法によれば、乗員の顔の一部が装着物によって隠されている場合と、乗員の顔の一部が非装着物によって隠されている場合と、のそれぞれにおいて、顔情報を検出する態様を異ならせることができるので、乗員モニタリング処理の精度を向上させることができる。また、非装着物による顔の隠れ具合に応じて、顔情報を適切に検出することができる。また、非装着物によって隠されていない顔の部位に関する情報を、顔情報として適切に検出することができる。また、目情報および口情報が検出されない場合であっても、少なくとも表情情報は検出することができる。
本開示のさらに他の一例としての乗員モニタリングプログラムは、コンピュータに、車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、取得ステップにおいて取得された撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、判別ステップにおける判別結果に応じて異なる態様で、撮像画像に基づいて乗員の顔に関する顔情報を検出し、検出結果に基づいて乗員の顔の状態変化をモニタリングする処理ステップと、を実行させる。前記処理ステップは、前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する。
上述した乗員モニタリングプログラムによれば、乗員の顔の一部が装着物によって隠されている場合と、乗員の顔の一部が非装着物によって隠されている場合と、のそれぞれにおいて、顔情報を検出する態様を異ならせることができるので、乗員モニタリング処理の精度を向上させることができる。また、非装着物による顔の隠れ具合に応じて、顔情報を適切に検出することができる。また、非装着物によって隠されていない顔の部位に関する情報を、顔情報として適切に検出することができる。また、目情報および口情報が検出されない場合であっても、少なくとも表情情報は検出することができる。
図1は、実施形態にかかる車両の構成の一例を示した例示的かつ模式的な図である。 図2は、実施形態にかかる撮像装置の配置の一例を示した例示的かつ模式的な図である。 図3は、実施形態にかかる乗員モニタリングシステムのシステム構成を示した例示的かつ模式的なブロック図である。 図4は、実施形態にかかる乗員モニタリング装置の機能を示した例示的かつ模式的なブロック図である。 図5は、実施形態にかかる第1の画像の一例を示した例示的かつ模式的な図である。 図6は、実施形態にかかる第1の画像の他の一例を示した例示的かつ模式的な図である。 図7は、実施形態にかかる第2の画像の一例を示した例示的かつ模式的な図である。 図8は、実施形態にかかる第2の画像の他の一例を示した例示的かつ模式的な図である。 図9は、実施形態にかかる第3の画像の一例を示した例示的かつ模式的な図である。 図10は、実施形態にかかる乗員モニタリング装置が実行する初期検出処理の一部を示した例示的かつ模式的なフローチャートである。 図11は、実施形態にかかる乗員モニタリング装置が実行する初期検出処理の残りの一部を示した例示的かつ模式的なフローチャートである。 図12は、実施形態にかかる乗員モニタリング装置が実行するトラッキング処理を示した例示的かつ模式的なフローチャートである。
以下、本開示の実施形態を図面に基づいて説明する。以下に記載する実施形態の構成、ならびに当該構成によってもたらされる作用および結果(効果)は、あくまで一例であって、以下の記載内容に限られるものではない。
まず、図1および図2を参照して、実施形態による車両1の概略的な構成について説明する。図1は、実施形態にかかる車両1の構成の一例を示した例示的かつ模式的な図であり、図2は、実施形態にかかる撮像装置201の配置の一例を示した例示的かつ模式的な図である。
図1に示されるように、実施形態にかかる車両1は、左右2つの前輪3Fと、左右2つの後輪3Rと、を有した四輪の自動車である。以下では、簡単化のため、前輪3Fおよび後輪3Rを総称して車輪3と記載することがある。実施形態では、4つの車輪3の一部または全部の横滑り角が、操舵部303aの操舵などに応じて変化(転舵)する。
また、図1に示されるように、実施形態にかかる車両1は、乗員(図1には不図示)が乗車する車室2aを有している。車室2a内には、乗員としての運転者X(図1には不図示)が運転席2bから操作可能な状態で、操舵部303aが設けられている。操舵部303aは、たとえば、ダッシュボード(インストルメントパネル)12から突出するように設けられたステアリングホイールやハンドルなどとしてとして構成される。なお、実施形態において、車室2a内に運転席2b以外の座席が存在していてもよいことは、言うまでもない。
また、車室2a内には、各種の画像を出力可能な表示部8と、各種の音を出力可能な音声出力部9と、を有したモニタ装置11が設けられている。モニタ装置11は、たとえば、車室2a内のダッシュボードの車幅方向(左右方向)の中央部に設けられている。図1に示される例において、表示部8は、指やスタイラスなどの指示体が近接(接触を含む)した位置の座標を検出可能な操作入力部10によって覆われている。これにより、乗員は、表示部8に表示される画像を視認することができるとともに、操作入力部10上で指示体を用いた入力操作(たとえばタッチ操作)を行うことで、各種の操作を入力することができる。
また、図2に示されるように、操舵部303aを支持する支持部202には、撮像装置201が設けられている。撮像装置201は、たとえばCCD(Charge Coupled Device)カメラとして構成される。
ここで、実施形態において、撮像装置201は、運転席2bに着座した運転者Xの顔が存在する可能性のある領域を撮像するように構成されている。より具体的に、撮像装置201は、運転席2bに着座した運転者Xの顔が視野の中心に位置するように、視野角および姿勢が調整されている。
撮像装置201は、車両1の運転が行われている間、運転者Xの顔の撮像を所定の時間間隔で周期的に実行し、撮像により得た撮像画像(に対応した画像データ)を順次、後述する乗員モニタリング装置310(図3および図4参照)に出力する。詳細は後述するが、乗員モニタリング装置310は、撮像装置201の撮像によって得られる撮像画像に基づいて、運転者Xの顔に関する顔情報の検出(および検出された顔情報のトラッキング)を含む乗員モニタリング処理を実行することで、運転者Xの顔の状態変化をモニタリングする。
なお、図2には図示されていないが、実施形態では、撮像装置201が撮像する領域に光を照射する照明部が設けられてもよい。この場合、赤外線を照射する赤外線照明を使用すれば、運転者Xにまぶしさを感じさせることなく、撮像装置201による撮像を補助することができる。
また、以下では、撮像装置201によって得られる、運転席2bに着座した運転者Xの顔が存在する可能性のある領域の情報を含む撮像画像に基づいて実行される乗員モニタリング処理について説明するが、乗員モニタリング処理は、運転者X以外の乗員に対しても実行可能である。すなわち、乗員モニタリング処理は、撮像装置201とは異なる位置に設けられる、運転席2b以外の他の座席に着座した乗員の顔が存在する可能性のある領域を撮像する撮像部によって得られる撮像画像に基づいても、同様に実行可能である。
次に、図3を参照して、乗員モニタリング処理を実行する乗員モニタリング装置310を含む乗員モニタリングシステム300のシステム構成について説明する。なお、図3に示されるシステム構成は、あくまで一例であるので、様々に設定(変更)可能である。
図3は、実施形態にかかる乗員モニタリングシステム300のシステム構成を示した例示的かつ模式的なブロック図である。図3に示されるように、乗員モニタリングシステム300は、制動システム301と、加速システム302と、操舵システム303と、変速システム304と、障害物センサ305と、走行状態センサ306と、撮像装置201と、モニタ装置11と、乗員モニタリング装置310と、車載ネットワーク350と、を有している。
制動システム301は、車両1の減速を制御する。制動システム301は、制動部301aと、制動制御部301bと、制動部センサ301cと、を有している。
制動部301aは、たとえばブレーキペダルなどといった、車両1を減速させるための装置である。
制動制御部301bは、たとえば、CPUなどといったハードウェアプロセッサを有したコンピュータにより構成されるECU(Electronic Control Unit)である。制動制御部301bは、たとえば車載ネットワーク350経由で入力される指示に基づいてアクチュエータ(不図示)を駆動し、制動部301aを作動させることで、車両1の減速度合を制御する。
制動部センサ301cは、制動部301aの状態を検出するための装置である。たとえば、制動部301aがブレーキペダルとして構成される場合、制動部センサ301cは、制動部301aの状態として、ブレーキペダルの位置または当該ブレーキペダルに作用している圧力を検出する。制動部センサ301cは、検出した制動部301aの状態を車載ネットワーク350に出力する。
加速システム302は、車両1の加速を制御する。加速システム302は、加速部302aと、加速制御部302bと、加速部センサ302cと、を有している。
加速部302aは、たとえばアクセルペダルなどといった、車両1を加速させるための装置である。
加速制御部302bは、たとえば、CPUなどといったハードウェアプロセッサを有したコンピュータにより構成されるECUである。加速制御部302bは、たとえば車載ネットワーク350経由で入力される指示に基づいてアクチュエータ(不図示)を駆動し、加速部302aを作動させることで、車両1の加速度合を制御する。
加速部センサ302cは、加速部302aの状態を検出するための装置である。たとえば、加速部302aがアクセルペダルとして構成される場合、加速部センサ302cは、アクセルペダルの位置または当該アクセルペダルに作用している圧力を検出する。加速部センサ302cは、検出した加速部302aの状態を車載ネットワーク350に出力する。
操舵システム303は、車両1の進行方向を制御する。操舵システム303は、操舵部303aと、操舵制御部303bと、操舵部センサ303cと、を有している。
操舵部303aは、たとえばステアリングホイールやハンドルなどといった、車両1の転舵輪を転舵させる装置である。
操舵制御部303bは、たとえば、CPUなどといったハードウェアプロセッサを有したコンピュータにより構成されるECUである。操舵制御部303bは、たとえば車載ネットワーク350経由で入力される指示に基づいてアクチュエータ(不図示)を駆動し、操舵部303aを作動させることで、車両1の進行方向を制御する。
操舵部センサ303cは、操舵部303aの状態を検出するための装置である。たとえば、操舵部303aがステアリングホイールとして構成される場合、操舵部センサ303cは、ステアリングホイールの位置または当該ステアリングホイールの回転角度を検出する。なお、操舵部303aがハンドルとして構成される場合、操舵部センサ303cは、ハンドルの位置または当該ハンドルに作用している圧力を検出してもよい。操舵部センサ303cは、検出した操舵部303aの状態を車載ネットワーク350に出力する。
変速システム304は、車両1の変速比を制御する。変速システム304は、変速部304aと、変速制御部304bと、変速部センサ304cと、を有している。
変速部304aは、たとえば、シフトレバーなどといった、車両1の変速比を変更するための装置である。
変速制御部304bは、たとえば、CPUなどといったハードウェアプロセッサを有したコンピュータにより構成されるECUである。変速制御部304bは、たとえば車載ネットワーク350経由で入力される指示に基づいてアクチュエータ(不図示)を駆動し、変速部304aを作動させることで、車両1の変速比を制御する。
変速部センサ304cは、変速部304aの状態を検出するための装置である。たとえば、変速部304aがシフトレバーとして構成される場合、変速部センサ304cは、シフトレバーの位置または当該シフトレバーに作用している圧力を検出する。変速部センサ304cは、検出した変速部304aの状態を車載ネットワーク350に出力する。
障害物センサ305は、車両1の周囲に存在しうる障害物に関する情報を検出するための装置である。障害物センサ305は、たとえば、障害物までの距離を検出するソナーなどといった測距センサを含んでいる。障害物センサ305は、検出した情報を車載ネットワーク350に出力する。
走行状態センサ306は、車両1の走行状態を検出するための装置である。走行状態センサ306は、たとえば、車両1の車輪速を検出する車輪速センサや、車両1の前後方向または左右方向の加速度を検出する加速度センサや、車両1の旋回速度(角速度)を検出するジャイロセンサなどを含んでいる。走行状態センサ306は、検出した走行状態を車載ネットワーク350に出力する。
乗員モニタリング装置310は、乗員モニタリングシステム300を統括的に制御するための装置である。乗員モニタリング装置310は、撮像装置201によって得られる撮像画像に基づいて、運転者Xの顔に関する顔情報の検出(および検出された顔情報のトラッキング)を含む乗員モニタリング処理を実行することで、運転者Xの顔の状態変化をモニタリングする。
乗員モニタリング装置310は、CPU(Central Processing Unit)310aと、ROM(Read Only Memory)310bと、RAM(Random Access Memory)310cと、SSD(Solid State Drive)310dと、表示制御部310eと、音声制御部310fと、を有したECUとして構成されている。
CPU310aは、乗員モニタリング装置310を統括的に制御するハードウェアプロセッサである。CPU310aは、ROM310bなどに記憶された各種の制御プログラム(コンピュータプログラム)を読み出し、当該各種の制御プログラムに規定されたインストラクションにしたがって各種の機能を実現する。各種の制御プログラムには、乗員モニタリング処理を実現するための乗員モニタリングプログラムが含まれる。
ROM310bは、上述した各種の制御プログラムの実行に必要なパラメータなどを記憶する不揮発性の主記憶装置である。
RAM310cは、CPU310aの作業領域を提供する揮発性の主記憶装置である。
SSD310dは、書き換え可能な不揮発性の補助記憶装置である。なお、実施形態にかかる乗員モニタリング装置310においては、補助記憶装置として、SSD310dに替えて(またはSSD310dに加えて)、HDD(Hard Disk Drive)が設けられてもよい。
表示制御部310eは、乗員モニタリング装置310で実行されうる各種の処理のうち、主として、撮像装置201から得られた撮像画像に対する画像処理や、モニタ装置11の表示部8に出力する画像データの生成などを司る。
音声制御部310fは、乗員モニタリング装置310で実行されうる各種の処理のうち、主として、モニタ装置11の音声出力部9に出力する音声データの生成などを司る。
車載ネットワーク350は、制動システム301と、加速システム302と、操舵システム303と、変速システム304と、障害物センサ305と、走行状態センサ306と、モニタ装置11の操作入力部10と、乗員モニタリング装置310と、を通信可能に接続する。
ところで、従来、マスクやサングラスなどといった装着物によって乗員の顔の一部が隠されている場合、装着物の着用状況に応じて異なる態様で乗員モニタリング処理を実行する技術が知られている。
上記のような従来の技術において、乗員の顔の一部が隠されるという状況は、マスクやサングラスなどといった装着物だけでなく、乗員の手や携帯電話などといった、装着物ではない非装着物によっても発生しうる。しかしながら、上記のような従来の技術は、乗員の顔の一部が非装着物によって隠されるという状況を想定していないので、乗員の顔の一部が隠されている場合、その隠れの原因が装着物であるか非装着物であるかに関わらず、同一の態様で乗員モニタリング処理が実行されると考えられる。
ここで、一般に、装着物と非装着物とでは、乗員の顔の隠れ具合などが異なる。たとえば、装着物によって隠される顔の部位は、装着物の種類に応じて一定に定まる一方、非装着物によって隠される顔の部位は、非装着物の種類や時間などに応じて様々に変化しうるので、一定に定まりにくい。したがって、乗員の顔の一部が装着物によって隠されている場合と、乗員の顔の一部が非装着物によって隠されている場合と、においてそれぞれ同一の態様で乗員モニタリング処理を実行すると、乗員モニタリング処理の精度が低下することがある。
そこで、実施形態は、乗員モニタリング装置310に次の図4に示されるような機能を持たせることで、乗員モニタリング処理の精度の向上を実現する。
図4は、実施形態にかかる乗員モニタリング装置310の機能を示した例示的かつ模式的なブロック図である。図4に示される機能は、ソフトウェアとハードウェアとの協働によって実現される。すなわち、図4に示される例において、乗員モニタリング装置310の機能は、CPU310aがROM310bなどに記憶された所定の制御プログラムを読み出して実行した結果として実現される。なお、実施形態では、図4に示される機能の少なくとも一部が専用のハードウェア(回路)によって実現されてもよい。
図4に示されるように、実施形態にかかる乗員モニタリング装置310は、取得部401と、判別部402と、処理部404と、を有している。
取得部401は、撮像装置201によって得られる撮像画像を、所定の制御タイミングで継続的に複数回取得する。前述したように、撮像画像は、車両1内において運転者Xの顔が存在する可能性のある領域の情報を含んでいる。
判別部402は、取得部401により取得された撮像画像が、マスクやサングラスなどといった装着物によって一部が隠された顔を含む第1の画像と、手や携帯電話などといった、装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、装着物によっても非装着物によっても隠されていない顔の全体を含む第3の画像と、のいずれに該当するかを判別する。
より具体的に、判別部402は、機械学習の結果として生成される学習済みモデル403を有しており、当該学習済みモデル403に基づいて、撮像画像が、第1の画像、第2の画像、および第3の画像のいずれに該当するか否かを判別する。学習済みモデル403は、たとえば、第1の画像、第2の画像、または第3の画像のいずれに該当するかのラベルを複数の学習用画像に対して付与し、これらの学習用画像とラベルの組み合わせを教師データとした教師あり学習によって生成することが可能である。なお、学習用画像は、たとえば撮像画像と同条件下で撮像された画像であり、撮像画像と同様の情報を含んでいるものとする。実施形態において、学習済みモデル403を生成するための機械学習は、教師あり学習に限らず、教師なし学習や強化学習、これら3つの学習スキームのうち1つ以上の組み合わせなどであってもよい。
ここで、第1の画像、第2の画像、および第3の画像の具体例について簡単に説明する。
図5は、実施形態にかかる第1の画像の一例を示した例示的かつ模式的な図である。この図5に示される画像500は、装着物によって運転者Xの顔の一部が隠された状況を表しているので、第1の画像の一例である。より具体的に、画像500は、装着物としてのマスクMによって運転者Xの顔の口元が隠された状況を表している。なお、マスクMは、装着物であるので、装着が解除されるまでは、一定の位置を保つ。
また、図6は、実施形態にかかる第1の画像の他の一例を示した例示的かつ模式的な図である。この図6に示される画像600も、図5に示される画像500と同様、装着物によって運転者Xの顔の一部が隠された状況を表しているので、第1の画像の一例である。より具体的に、画像600は、装着物の一例としてのサングラスSによって運転者Xの目元が隠された状況を表している。なお、上記のマスクM(図5参照)と同様、サングラスSも、装着物であるので、装着が解除されるまでは、一定の位置を保つ。
また、図7は、実施形態にかかる第2の画像の一例を示した例示的かつ模式的な図である。この図7に示される画像700は、非装着物によって運転者Xの顔の一部が隠された状況を表しているので、第2の画像の一例である。より具体的に、画像700は、非装着物としての手Hによって運転者Xの目元と頬の部分が隠された状況を表している。なお、図7に示される例では、手Hが運転者Xの目元および頬の部分と重なっているが、手Hは、非装着物であるので、顔の特定の位置に常に重なるとはいえず、一定の位置を保ちにくい。
また、図8は、実施形態にかかる第2の画像の他の一例を示した例示的かつ模式的な図である。この図8に示される画像800も、図7に示される画像700と同様、非装着物によって運転者Xの顔の一部が隠された状況を表しているので、第2の画像の一例である。より具体的に、画像800は、非装着物としての携帯電話Pによって運転者Xの顔の一部が隠された状況を表している。なお、図8に示される例では、携帯電話Pの位置が運転者Xの顔の耳元から口元にかけての部分と重なっているが、上記の手H(図7参照)と同様、携帯電話Pも、非装着物であるので、顔の特定の位置に常に重なるとはいえず、一定の位置を保ちにくい。
また、図9は、実施形態にかかる第3の画像の一例を示した例示的かつ模式的な図である。この図9に示される画像900は、運転者Xの顔の全体があらわになった状況を表しているので、第3の画像の一例である。
実施形態にかかる乗員モニタリング処理は、図5~図9に示されるような各種の撮像画像から取得される、運転者Xの顔に関する顔情報に基づいて実行される。なお、顔情報とは、運転者Xの目に関する目情報や、運転者Xの口に関する口情報、運転者Xの表情に関する表情情報などを含むデータである。目情報とは、目(瞼)の開閉状態や視線の向きなどを示すデータであり、口情報とは、口の開閉状態(会話の状態)などを示すデータである。
ここで、図9に示される画像900のような第3の画像(以下、便宜的にノーマル画像と表現することがある)からは、全ての顔情報を安定的に取得することが可能である。したがって、ノーマル画像については、全ての顔情報に着目するのが適切であるといえる。
また、図5および図6に示される画像500および600のような第1の画像からは、装着物によって隠されていない顔の部位に関する情報を安定的に取得することは可能であるが、装着物によって隠されている顔の部位に関する情報を取得することは不可能である。したがって、第1の画像については、前者の情報には着目せず、後者の情報のみに着目するのが適切であるといえる。
より具体的に、図5に示される画像500のような第1の画像(以下、便宜的にマスク画像と表現することがある)からは、目情報を安定的に取得することは可能であるが、口情報を取得することは不可能である。したがって、マスク画像については、目情報のみに着目するのが適切であるといえる。
また、図6に示される画像600のような第1の画像(以下、便宜的にサングラス画像と表現することがある)からは、口情報を安定的に取得することは可能であるが、口情報を取得することは不可能である。したがって、サングラス画像については、口情報のみに着目するのが適切であるといえる。
一方、図7および図8に示される画像700および800のような第2の画像(以下、隠れ画像と表現することがある)からは、特定の顔情報を安定的に取得しにくい。すなわち、前述したように、非装着物は、顔の特定の位置に常に重なるとはいえず、一定の位置を保ちにくいので、顔の特定の部位に関する情報に着目するだけでは、情報の見逃しなどが発生しやすい。したがって、隠れ画像については、少なくとも、乗員モニタリング処理の初期ステップとして最初に顔情報を取得する場合において、特定の顔情報のみに着目するのではなく、全ての顔情報に着目するのが適切であるといえる。
なお、表情情報は、顔の全てが隠されていなければ、ある程度のレベルで取得することが可能であると考えられる。したがって、図5~図9に示されるような各種の画像のいずれについても、表情情報に着目するのは適切であると考えられる。
このように、装着物によって顔の一部が隠された状況と、非装着物によって顔の一部が隠された状況と、顔の全体があらわになった状況とでは、着目すべき顔情報が異なる。したがって、着目する顔情報が状況に応じて適宜変更されるように、状況に応じて異なる態様で乗員モニタリング処理を実行することが望ましい。
そこで、図4に戻り、処理部404は、判別部402による判別結果に応じて異なる態様で、運転者Xの顔に関する顔情報を検出し、検出結果に基づいて、運転者Xの顔の状態変化をモニタリングする。以下、処理部404の機能についてより詳細に説明する。
処理部404は、乗員モニタリング処理の初期段階として撮像画像から最初に顔情報を検出する初期検出モードと、初期検出処理において検出された顔情報のトラッキングを実行するトラッキングモードとの2つの制御モードにそれぞれ対応した機能モジュールを有している。
すなわち、処理部404は、初期検出モードに対応した処理としての初期検出処理を実行する初期検出処理部405と、トラッキングモードに対応した処理としてのトラッキング処理を実行するトラッキング処理部406と、を有している。
処理部404の制御モードは、たとえば取得部401により撮像画像が取得された場合に、初期検出モードに設定される。
前述したように、撮像画像が、図5に示されるマスク画像や図6に示されるサングラス画像などのような第1の画像に該当する場合、顔の特定の部位、すなわち装着物によって隠されていない顔の部位に関する情報に着目することが適切であるといえる。したがって、実施形態において、処理部404の初期検出処理部405は、撮像画像が第1の画像に該当する場合、顔の全体に対して予め設定された複数の特徴点のうち、装着物によって隠されていない顔の部位に対応した1以上の特徴点に基づいて顔情報を検出する。
一方、前述したように、撮像画像が、図7および図8に示される隠れ画像のような第2の画像に該当する場合、少なくとも初期検出処理においては、全ての顔情報に着目するのが適切であるといえる。したがって、実施形態において、処理部404の初期検出処理部405は、撮像画像が第2の画像に該当する場合、顔の全体に対して予め設定された複数の特徴点(の全て)に基づいて顔情報を検出する。
ただし、非装着物で隠された顔の部位が目を含む場合は、顔情報として目情報を検出するのは無駄であるし、非装着物で隠された顔の部位が口を含む場合は、顔情報として口情報を検出するのは無駄である。
したがって、処理部404の初期検出処理部405は、撮像画像が第2の画像に該当する場合、非装着物によって隠された顔の部位に応じて異なる顔情報を検出する。より具体的に、処理部404の初期検出処理部405は、非装着物によって隠された顔の部位が目を含まない場合、顔情報として目に関する目情報を検出し、非装着物によって隠された顔の部位が口を含まない場合、顔情報として口に関する口情報を検出する。
ここで、前述したように、非装着物は、顔の特定の位置に常に重なるとはいえず、一定の位置を保ちにくいので、撮像画像が第2の画像に該当する場合、目情報も口情報も取得できない事態も発生しうる。しかしながら、前述したように、表情情報は、顔の全てが隠されていなければ、ある程度のレベルで取得することが可能であると考えられる。このため、撮像画像が第2の画像に該当する場合、目情報も口情報も取得できない事態が発生しても、表情情報については、ある程度のレベルで取得できる可能性がある。
したがって、実施形態において、処理部404の初期検出処理部405は、撮像画像が第2の画像に該当する場合、目情報および口情報の検出の成否に関わらず、顔情報として表情に関する表情情報を検出する。
なお、実施形態において、撮像画像が、図9に示されるノーマル画像のような第3の画像に該当する場合、処理部404の初期検出処理部405が、顔の全体に対して予め設定された複数の特徴点(の全て)に基づいて(全ての)顔情報を検出することは、言うまでもない。
ここで、顔情報は、撮像画像から取得される特徴点のみに基づいてはある程度のレベルで検出することが可能である。しかしながら、顔情報は、撮像画像から取得される特徴点と、顔の三次元の形状を含む構造を表すデータとして取得される三次元モデルと、のフィッティングを利用すれば、より詳細に検出することが可能である。なお、フィッティングとは、三次元モデルを表すパラメータを撮像画像における顔の形状を含む構造にマッチするように適宜調整する処理である。
実施形態では、撮像画像が第1の画像または第3の画像に該当する場合、着目すべき特徴点が一定なので、フィッティングを容易に実行することができる。しかしながら、撮像画像が第2の画像に該当する場合、着目すべき特徴点が一定ではないので、フィッティングを実行するのが困難である。
したがって、実施形態において、処理部404の初期検出処理部405は、撮像画像が第1の画像に該当する場合、当該第1の画像から取得される特徴点と、乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、顔情報を検出し、撮像画像が第2の画像に該当する場合、当該第2の画像から取得される特徴点のみに基づいて、顔情報を検出する。
ところで、顔の状態変化をモニタリングするためには、初期検出処理部405による上記のような顔情報の検出の後に、トラッキング処理部406による顔情報のトラッキングが実行されることが望まれる。したがって、処理部404の制御モードは、基本的には、初期検出モードにおける顔情報の検出が完了した後、トラッキングモードに移行する。
しかしながら、撮像画像が第2の画像に該当する場合、着目すべき顔情報が定まらないので、顔情報のトラッキングを実行するのか困難である。したがって、実施形態において、処理部404は、撮像画像が第2の画像に該当する場合、初期検出処理部405によって顔情報を検出した後、トラッキング処理部406による顔情報のトラッキングを実行することなく、次の制御タイミングで取得部401により取得される撮像画像を対象とした判別部402による判別結果に応じて異なる態様で、初期検出処理部405によって顔情報を再度検出する。
一方、撮像画像が第1の画像に該当する場合、着目すべき顔情報が、装着物によって隠されていない顔の部位に関する情報に定まるので、顔情報のトラッキングを問題無く実行することができる。したがって、実施形態において、処理部404は、撮像画像が第1の画像に該当する場合、初期検出処理部405によって顔情報を検出した後、トラッキング処理部406によって顔情報のトラッキングを実行する。
以下、実施形態にかかる初期検出処理およびトラッキング処理のより詳細な内容について、フローチャートとともに説明する。
まず、初期検出処理の詳細について説明する。
図10は、実施形態にかかる乗員モニタリング装置310が実行する初期検出処理の一部を示した例示的かつ模式的なフローチャートであり、図11は、実施形態にかかる乗員モニタリング装置310が実行する初期検出処理の残りの一部を示した例示的かつ模式的なフローチャートである。初期検出処理は、たとえば、処理部404の制御モードが初期検出モードに設定され、かつ、取得部401により撮像画像が取得された場合に実行される。
図10に示されるように、初期検出処理においては、まず、S1001において、初期検出処理部405は、撮像画像における顔の位置を検出する。
そして、S1002において、初期検出処理部405は、撮像画像における顔の向きを検出する。
そして、S1003において、判別部402は、撮像画像の判別を実行する。
そして、S1004において、初期検出処理部405は、S1002の判別結果に基づいて、撮像画像が、第3の画像、より具体的には図9に示されるノーマル画像に該当するか否かを判断する。
S1004において、撮像画像がノーマル画像に該当すると判断された場合、S1005に処理が進む。そして、S1005において、初期検出処理部405は、撮像画像から、ノーマル画像用の特徴点、すなわち顔の全体に対して予め設定された複数の特徴点(の全て)を検出する。
そして、S1006において、初期検出処理部405は、S1004で検出された特徴点に基づいて、撮像画像と、顔の三次元の形状を含む構造を表すデータとして取得される三次元モデルと、のフィッティングを実行し、撮像画像に含まれる顔の位置および向きを、より詳細に検出する。初期検出処理におけるフィッティングは、たとえば、顔の三次元の形状を含む構造を表す統計的なデータとして予め設定された初期モデルに基づいて実行される。
そして、図11に示されるように、S1101において、初期検出処理部405は、S1006におけるフィッティングの結果に基づいて、顔に関する顔情報として、目に関する目情報を検出する。なお、前述したように、目情報とは、目(瞼)の開閉状態や視線の向きなどを示すデータである。
そして、S1102において、初期検出処理部405は、顔に関する顔情報として、口に関する口情報を検出する。なお、前述したように、口情報とは、口の開閉状態(会話の状態)などを示すデータである。
そして、S1103において、初期検出処理部405は、顔に関する顔情報として、表情に関する表情情報を検出する。
そして、S1104において、初期検出処理部405は、顔情報が正常に検出されたか否かを判断する。たとえば、初期検出処理部405は、顔情報の検出のために直近に実行された一連の処理としてのS1005、1006、およびS1101~S1103の処理のそれぞれについて、その信頼度を示す値(スコア)を算出し、当該スコアに基づいて、S1104の判断を実行する。
S1104において、顔情報が正常に検出されたと判断された場合、S1105に処理が進む。そして、S1105において、初期検出処理部405は、処理部404の次の制御モードをトラッキングモードに設定する。そして、処理が終了する。
一方、S1104において、顔情報が正常に検出されなかったと判断された場合、S1106に処理が進む。そして、S1106において、初期検出処理部405は、処理部404の次の制御モードを初期検出モードに設定する。そして、処理が終了する。
図10に戻り、S1004において、撮像画像がノーマル画像に該当しないと判断された場合、S1007に処理が進む。そして、S1007において、初期検出処理部405は、S1002の判別結果に基づいて、撮像画像が、第1の画像のうちの、図6に示されるようなサングラス画像に該当するか否かを判断する。
S1007において、撮像画像がサングラス画像に該当すると判断された場合、S1008に処理が進む。そして、S1008において、初期検出処理部405は、撮像画像から、サングラス画像用の特徴点、すなわち顔の全体に対して予め設定された複数の特徴点のうち、隠されていない顔の部位(目元以外の部位)に対応した特徴点を検出する。
そして、S1009において、初期検出処理部405は、S1008で検出された特徴点に基づいて、撮像画像と、顔の三次元の形状を含む構造を表すデータとして取得される三次元モデルと、のフィッティングを実行し、撮像画像に含まれる顔の位置および向きを、より詳細に検出する。
そして、図11に示されるように、S1107において、初期検出処理部405は、S1009におけるフィッティングの結果に基づいて、顔に関する顔情報として、口に関する口情報を検出する。
そして、S1108において、初期検出処理部405は、顔に関する顔情報として、表情に関する表情情報を検出する。
S1108の処理が完了すると、S1104に処理が進むが、S1104以降の処理については、既に説明したため、ここでは説明を省略する。
図10に戻り、S1007において、撮像画像がサングラス画像に該当しないと判断された場合、S1010に処理が進む。そして、S1010において、初期検出処理部405は、S1002の判別結果に基づいて、撮像画像が、第1の画像のうちの、図5に示されるようなマスク画像に該当するか否かを判断する。
S1010において、撮像画像がマスク画像に該当すると判断された場合、S1011に処理が進む。そして、S1008において、初期検出処理部405は、撮像画像から、マスク画像用の特徴点、すなわち顔の全体に対して予め設定された複数の特徴点のうち、隠されていない顔の部位(口元以外の部位)に対応した特徴点を検出する。
そして、S1012において、初期検出処理部405は、S1011で検出された特徴点に基づいて、撮像画像と、顔の三次元の形状を含む構造を表すデータとして取得される三次元モデルと、のフィッティングを実行し、撮像画像に含まれる顔の位置および向きを、より詳細に検出する。
そして、図11に示されるように、S1109において、初期検出処理部405は、S1012におけるフィッティングの結果に基づいて、顔に関する顔情報として、目に関する目情報を検出する。
そして、S1110において、初期検出処理部405は、顔に関する顔情報として、表情に関する表情情報を検出する。
S1110の処理が完了すると、S1104に処理が進むが、S1104以降の処理については、既に説明したため、ここでは説明を省略する。
図10に戻り、S1010において、撮像画像がマスク画像に該当しないと判断された場合、S1013に処理が進む。そして、S1013において、初期検出処理部405は、S1002の判別結果に基づいて、撮像画像が、第2の画像、より具体的には図7および図8に示されるような隠れ画像に該当するか否かを判断する。
S1013において、撮像画像が隠れ画像に該当しないと判断された場合、初期検出処理の実行をやり直す必要がある。したがって、この場合、図11に示されるように、S1106に処理が進み、当該S1106において、処理部404の次の制御モードが初期検出モードに設定される。そして、処理が終了する。
一方、S1013において、撮像画像が隠れ画像に該当すると判断された場合、S1014に処理が進む。そして、S1014において、初期検出処理部405は、撮像画像から、ノーマル画像用の特徴点、すなわち顔の全体に対して予め設定された複数の特徴点(の全て)を検出する。
なお、前述したように、撮像画像が隠れ画像に該当する場合は、三次元モデルに基づくフィッティングは実行されない。したがって、実施形態では、S1014の処理が完了しても、S1006、S1009、またはS1012の処理のようなフィッティングは実行されない。
そして、図11に示されるように、S1111において、初期検出処理部405は、S1014で検出された特徴点に基づいて、非装着物によって隠された顔の部位が目を含むか否かを判断する。
S1111において、隠された顔の部位が目を含まないと判断された場合、S1112に処理が進む。この場合、顔に関する顔情報として、少なくとも目に関する目情報が検出可能であると判断できるので、S1112において、初期検出処理部405は、目情報を検出する。そして、S1113に処理が進む。
なお、S1111において、隠された顔の部位が目を含むと判断された場合、目情報の検出は困難であると判断できるので、S1112の処理が実行されることなく、そのままS1113に処理が進む。
S1113において、初期検出処理部405は、S1014で検出された特徴点に基づいて、非装着物によって隠された顔の部位が口を含むか否かを判断する。
S1113において、隠された顔の部位が口を含まないと判断された場合、S1114に処理が進む。この場合、顔に関する顔情報として、少なくとも口に関する口情報が検出可能であると判断できるので、S1114において、初期検出処理部405は、口情報を検出する。そして、S1115に処理が進む。
なお、S1113において、隠された顔の部位が口を含むと判断された場合、口情報の検出は困難であるので、S1114の処理が実行されることなく、そのままS1115に処理が進む。
S1115において、初期検出処理部405は、顔に関する顔情報として、表情に関する表情情報を検出する。
S1115の処理が完了すると、S1106に処理が進むが、S1106以降の処理については、既に説明したため、ここでは説明を省略する。
次に、トラッキング処理の詳細について説明する。
図12は、実施形態にかかる乗員モニタリング装置310が実行するトラッキング処理を示した例示的かつ模式的なフローチャートである。トラッキング処理は、たとえば、処理部404の制御モードがトラッキングモードに設定され、かつ、取得部401により撮像画像が取得された場合に実行される。
図12に示されるように、トラッキング処理においては、まず、S1201において、トラッキング処理部406は、撮像画像における顔の位置のトラッキングを実行する。なお、トラッキングは、初期検出処理における各種の検出結果を利用して、探索範囲を限定したり、マッチングのためのテンプレートを流用したり、連続するフレーム間の差分に基づいて変化した部分を特定したりすることができる。したがって、一般に、トラッキングは、初期検出処理における各種の検出に比べて、処理速度が速い。
そして、S1202において、トラッキング処理部406は、撮像画像における顔の向きのトラッキングを実行する。
そして、S1203において、トラッキング処理部406は、ノーマル画像の顔情報が直近に検出(トラッキングを含む)されたか否かを判断する。
S1203において、ノーマル画像の顔情報が直近に検出されたと判断された場合、S1204に処理が進む。そして、S1204において、トラッキング処理部406は、ノーマル画像用の特徴点のトラッキングを実行する。
そして、S1205において、トラッキング処理部406は、S1204におけるトラッキングの結果と三次元モデルとのフィッティングを実行する。なお、トラッキング処理におけるフィッティングは、たとえば、前回の初期検出処理またはトラッキング処理において調整された後の最新の三次元モデルに基づいて実行される。
そして、S1206において、トラッキング処理部406は、S1205におけるフィッティングの結果に基づいて、目情報のトラッキングを実行する。
そして、S1207において、トラッキング処理部406は、S1205におけるフィッティングの結果に基づいて、口情報のトラッキングを実行する。
そして、S1208において、トラッキング処理部406は、S1205におけるフィッティングの結果に基づいて、表情情報のトラッキングを実行する。
そして、S1209において、トラッキング処理部406は、顔情報のトラッキングが正常に実行されたか否かを判断する。たとえば、トラッキング処理部406は、顔情報のトラッキングのために直近に実行された一連の処理のそれぞれについて、その信頼度を示す値(スコア)を算出し、当該スコアに基づいて、S1209の判断を実行する。
S1209において、顔情報のトラッキングが正常に実行されたと判断された場合、S1210に処理が進む。そして、S1210において、トラッキング処理部406は、処理部404の次の制御モードをトラッキングモードに設定する。そして、処理が終了する。
一方、S1209において、顔情報のトラッキングが正常に実行されなかったと判断された場合、S1211に処理が進む。そして、S1211において、トラッキング処理部406は、処理部404の次の制御モードを初期検出モードに設定する。そして、処理が終了する。
なお、S1203において、ノーマル画像の顔情報が直近に検出されなかったと判断された場合、S1212に処理が進む。そして、S1212において、トラッキング処理部406は、サングラス画像の顔情報が直近に検出(トラッキングを含む)されたか否かを判断する。
S1212において、サングラス画像の顔情報が直近に検出されたと判断された場合、S1213に処理が進む。そして、S1213において、トラッキング処理部406は、サングラス画像用の特徴点のトラッキングを実行する。
そして、S1214において、トラッキング処理部406は、S1213におけるトラッキングの結果と、直近から使用している三次元モデルと、のフィッティングを実行する。
そして、S1215において、トラッキング処理部406は、S1214におけるフィッティングの結果に基づいて、口情報のトラッキングを実行する。
そして、S1216において、トラッキング処理部406は、S1214におけるフィッティングの結果に基づいて、表情情報のトラッキングを実行する。
S1216の処理が完了すると、S1209に処理が進むが、S1209以降の処理については、既に説明したため、ここでは説明を省略する。
一方、S1212において、サングラス画像の顔情報が直近に検出されなかったと判断された場合、S1217に処理が進む。この場合は、マスク画像の顔情報が直近に検出(トラッキングを含む)された場合に該当する。したがって、S1217において、トラッキング処理部406は、マスク画像用の特徴点のトラッキングを実行する。
そして、S1218において、トラッキング処理部406は、S1217におけるトラッキングの結果と、直近から使用している三次元モデルと、のフィッティングを実行する。
そして、S1219において、トラッキング処理部406は、S1218におけるフィッティングの結果に基づいて、目情報のトラッキングを実行する。
そして、S1220において、トラッキング処理部406は、S1218におけるフィッティングの結果に基づいて、表情情報のトラッキングを実行する。
S1220の処理が完了すると、S1209に処理が進むが、S1209以降の処理については、既に説明したため、ここでは説明を省略する。
以上説明したように、実施形態にかかる乗員モニタリング装置310は、取得部401と、判別部402と、処理部404と、を有している。取得部401は、車両1内において運転者Xの顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する。判別部402は、取得部401により取得された撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する。処理部404は、判別部402による判別結果に応じて異なる態様で、撮像画像に基づいて運転者Xの顔に関する顔情報を検出し、検出結果に基づいて運転者Xの顔の状態変化をモニタリングする。
実施形態にかかる乗員モニタリング装置310によれば、運転者Xの顔の一部が装着物によって隠されている場合と、運転者Xの顔の一部が非装着物によって隠されている場合と、のそれぞれにおいて、顔情報を検出する態様を異ならせることができるので、乗員モニタリング処理の精度を向上させることができる。
実施形態にかかる乗員モニタリング装置310において、処理部404は、撮像画像が第1の画像に該当すると判別部402により判別された場合、顔の全体に対して予め設定された複数の特徴点のうち、装着物によって隠されていない顔の部位に対応した1以上の特徴点に基づいて顔情報を検出し、撮像画像が第2の画像に該当すると判別部402により判別された場合、複数の特徴点に基づいて顔情報を検出する。このような構成によれば、着目すべき顔の部位が一定に定まりやすい前者の場合は、特定の部位に対応した特定の特徴点を選択的に考慮して、顔情報を適切に検出することができ、着目すべき顔の部位が一定に定まりにくい後者の場合は、顔の全体に対応した複数の特徴点をまんべんなく考慮して、顔情報を適切に検出することができる。
また、実施形態にかかる乗員モニタリング装置310において、処理部404は、撮像画像が第2の画像に該当すると判別部402により判別された場合、非装着物によって隠された顔の部位に応じて異なる顔情報を検出する。このような構成によれば、非装着物による顔の隠れ具合に応じて、顔情報を適切に検出することができる。
また、実施形態にかかる乗員モニタリング装置310において、処理部404は、非装着物によって隠された顔の部位が目を含まない場合、顔情報として目に関する目情報を検出し、非装着物によって隠された顔の部位が口を含まない場合、顔情報として口に関する口情報を検出する。このような構成によれば、非装着物によって隠されていない顔の部位に関する情報を、顔情報として適切に検出することができる。
また、実施形態にかかる乗員モニタリング装置310において、処理部404は、目情報および口情報の検出の成否に関わらず、顔情報として表情に関する表情情報を検出する。このような構成によれば、目情報および口情報が検出されない場合であっても、少なくとも表情情報は検出することができる。
また、実施形態にかかる乗員モニタリング装置310において、処理部404は、撮像画像が第1の画像に該当すると判別部402により判別された場合、当該第1の画像の特徴と、乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、顔情報を検出し、撮像画像が第2の画像に該当すると判別部402により判別された場合、当該第2の画像の特徴のみに基づいて、顔情報を検出する。このような構成によれば、状況に応じてフィッティングを実行するか否かを切り替えることで、状況に応じて適切な態様で顔情報を検出することができる。
また、実施形態にかかる乗員モニタリング装置310において、取得部401は、撮像画像を継続的に複数回取得する。そして、処理部404は、撮像画像が第1の画像に該当すると判別部402により判別された場合、顔情報を検出した後、当該顔情報のトラッキングを実行し、撮像画像が第2の画像に該当すると判別部402により判別された場合、顔情報を検出した後、当該顔情報のトラッキングを実行することなく、取得部401により次に取得される撮像画像を対象とした判別部402による判別結果に応じて異なる態様で、顔情報を検出する。このような構成によれば、着目すべき顔の部位が一定に定まりやすいためトラッキングを実行しやすい前者の場合と、着目すべき顔の部位が一定に定まりにくいためトラッキングを実行しにくい後者の場合とで、トラッキングを実行するか否かを適切に切り替えることができる。
また、実施形態にかかる乗員モニタリング装置310において、判別部402は、撮像画像と同様の情報を含む学習用画像と、当該学習用画像が第1の画像と第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデル403に基づいて、取得部401により取得された撮像画像が第1の画像と第2の画像とのいずれに該当するかを判別する。このような構成によれば、学習済みモデル403に基づいて、撮像画像の判別を容易に実行することができる。
なお、実施形態にかかる乗員モニタリング装置310において実行される乗員モニタリングプログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、実施形態にかかる乗員モニタリング装置310において実行される乗員モニタリングプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、ネットワーク経由でのダウンロードを受け付ける、といった形で提供されてもよい。
また、上述した実施形態では、第1の画像の例として、マスク画像とサングラス画像との2種類の画像が例示されている。しかしながら、実施形態では、第1の画像として、これら2種類の画像の他に、マスクおよびサングラスの両方によって顔の一部が隠された状態を表すマスク-サングラス画像も考えられる。撮像画像がマスク-サングラス画像に該当するか否かの判定は、たとえば、図10に示されるS1004の処理において撮像画像がノーマル画像に該当しないと判定された後、S1007に処理が移行する前に実行することが考えられる。そして、撮像画像がマスク-サングラス画像に該当すると判断された場合、たとえば、図11に示されるS1106に処理が進み、処理部404の次の制御モードが初期検出モードに設定される。ただし、この場合、撮像画像の判別に使用する学習済みモデルが、ノーマル画像と、マスク画像と、サングラス画像と、マスク-サングラス画像と、隠れ画像と、の5種類の画像を判別可能なモデルとして生成されている必要がある。
以上、本開示の実施形態を説明したが、上述した実施形態はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
310 乗員モニタリング装置
401 取得部
402 判別部
403 学習済みモデル
404 処理部

Claims (13)

  1. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
    前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
    前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
    を備え
    前記処理部は、
    前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
    前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
    前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリング装置。
  2. 前記処理部は、
    前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、顔の全体に対して予め設定された複数の特徴点のうち、前記装着物によって隠されていない顔の部位に対応した1以上の特徴点に基づいて前記顔情報を検出し、
    前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記複数の特徴点に基づいて前記顔情報を検出する、
    請求項1に記載の乗員モニタリング装置。
  3. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
    前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
    前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
    を備え、
    前記処理部は、
    前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
    前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリング装置。
  4. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
    前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
    前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
    を備え、
    前記取得部は、前記撮像画像を継続的に複数回取得し、
    前記処理部は、
    前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
    前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得部により次に取得される前記撮像画像を対象とした前記判別部による判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリング装置。
  5. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
    前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
    前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
    を備え、
    前記判別部は、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得部により取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリング装置。
  6. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を備え
    前記処理ステップは、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
    前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
    前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリング方法。
  7. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を備え
    前記処理ステップは、
    前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリング方法。
  8. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を備え
    前記取得ステップは、前記撮像画像を継続的に複数回取得し、
    前記処理ステップは、
    前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得ステップにより次に取得される前記撮像画像を対象とした前記判別ステップによる判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリング方法。
  9. 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を備え
    前記判別ステップは、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得ステップにより取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリング方法。
  10. コンピュータに、
    車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を実行させるための、乗員モニタリングプログラムであって、
    前記処理ステップは、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
    前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
    前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリングプログラム
  11. コンピュータに、
    車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を実行させるための、乗員モニタリングプログラムであって、
    前記処理ステップは、
    前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリングプログラム
  12. コンピュータに、
    車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を実行させるための、乗員モニタリングプログラムであって、
    前記取得ステップは、前記撮像画像を継続的に複数回取得し、
    前記処理ステップは、
    前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
    前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得ステップにより次に取得される前記撮像画像を対象とした前記判別ステップによる判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリングプログラム
  13. コンピュータに、
    車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
    前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
    前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
    を実行させるための、乗員モニタリングプログラムであって、
    前記判別ステップは、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得ステップにより取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリングプログラム
JP2018181801A 2018-09-27 2018-09-27 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム Active JP7232008B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018181801A JP7232008B2 (ja) 2018-09-27 2018-09-27 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
US16/580,562 US11501561B2 (en) 2018-09-27 2019-09-24 Occupant monitoring device, occupant monitoring method, and occupant monitoring program
DE102019125919.3A DE102019125919A1 (de) 2018-09-27 2019-09-26 Insassenüberwachungseinrichtung, Insassenüberwachungsverfahren und Insassenüberwachungsprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018181801A JP7232008B2 (ja) 2018-09-27 2018-09-27 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム

Publications (2)

Publication Number Publication Date
JP2020052755A JP2020052755A (ja) 2020-04-02
JP7232008B2 true JP7232008B2 (ja) 2023-03-02

Family

ID=69781204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018181801A Active JP7232008B2 (ja) 2018-09-27 2018-09-27 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム

Country Status (3)

Country Link
US (1) US11501561B2 (ja)
JP (1) JP7232008B2 (ja)
DE (1) DE102019125919A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (ja) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd 顔検出システム及び方法、並びに顔画像認証方法
JP2009201756A (ja) 2008-02-28 2009-09-10 Omron Corp 情報処理装置および方法、並びに、プログラム
JP2010097379A (ja) 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2018128834A (ja) 2017-02-08 2018-08-16 トヨタ自動車株式会社 ドライバ状態検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10089543B2 (en) * 2016-07-29 2018-10-02 Honda Motor Co., Ltd. System and method for detecting distraction and a downward vertical head pose in a vehicle
WO2018144537A1 (en) * 2017-01-31 2018-08-09 The Regents Of The University Of California Machine learning based driver assistance
JP6870660B2 (ja) * 2018-06-08 2021-05-12 トヨタ自動車株式会社 ドライバ監視装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (ja) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd 顔検出システム及び方法、並びに顔画像認証方法
JP2009201756A (ja) 2008-02-28 2009-09-10 Omron Corp 情報処理装置および方法、並びに、プログラム
JP2010097379A (ja) 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2018128834A (ja) 2017-02-08 2018-08-16 トヨタ自動車株式会社 ドライバ状態検出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Mira Jeong et al,Driver Facial Landmark Detection in Real Driving Situations,IEEE Transactions on Circuits and Systems for Video Technology,米国,IEEE,2017年11月02日,VOL.28,NO.10,p.2753-2767,https://ieeexplore.ieee.org/document/8094282
福田 収一 他2名,安全運転のためのドライバーの表情からの感情抽出,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2006年06月23日,vol.106,no.124,p.21-31

Also Published As

Publication number Publication date
US11501561B2 (en) 2022-11-15
JP2020052755A (ja) 2020-04-02
DE102019125919A1 (de) 2020-04-02
US20200104569A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6520905B2 (ja) 車両用運転支援装置
JP2012003764A (ja) 顔追跡または眼追跡に基づいた表示部の再設定
JP6039074B2 (ja) 撮像システム
CN111107310A (zh) 照相机参数估计装置、照相机参数估计方法
JP7226197B2 (ja) 車両制御装置
US11500470B2 (en) System and method of vehicle aware gesture recognition in vehicles with smart helmets
JP7232008B2 (ja) 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
CN110884426A (zh) 显示控制装置
JP7173811B2 (ja) 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
JP2022123925A (ja) 運転姿勢判定装置
JP7311257B2 (ja) 眼球情報検出装置、眼球情報検出方法、および乗員モニタリング装置
US12005913B2 (en) Method of directly controlling autonomous vehicle
CN114590203A (zh) 周边监视装置
JP2021014245A (ja) 車両周辺表示装置
CN112238812B (zh) 车辆周边显示装置
JP2020121638A (ja) 表示制御装置
JP7331511B2 (ja) 車両周辺表示装置
CN113613979A (zh) 车辆行驶控制装置
KR20200040320A (ko) 차량, 차량의 제어 방법 및 영상 탐색 장치
JP7314514B2 (ja) 表示制御装置
JP2024092546A (ja) 周辺表示装置
CN117508065A (zh) 防晕车的控制方法、装置、车辆以及存储介质
WO2021064938A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP2021124972A (ja) 情報処理システム、および情報処理プログラム
JP2021126911A (ja) 環境情報提供システム、環境情報提供方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R150 Certificate of patent or registration of utility model

Ref document number: 7232008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150