JP7232008B2 - 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム - Google Patents
乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム Download PDFInfo
- Publication number
- JP7232008B2 JP7232008B2 JP2018181801A JP2018181801A JP7232008B2 JP 7232008 B2 JP7232008 B2 JP 7232008B2 JP 2018181801 A JP2018181801 A JP 2018181801A JP 2018181801 A JP2018181801 A JP 2018181801A JP 7232008 B2 JP7232008 B2 JP 7232008B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- occupant
- information
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/48—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Description
310 乗員モニタリング装置
401 取得部
402 判別部
403 学習済みモデル
404 処理部
Claims (13)
- 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
を備え、
前記処理部は、
前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリング装置。 - 前記処理部は、
前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、顔の全体に対して予め設定された複数の特徴点のうち、前記装着物によって隠されていない顔の部位に対応した1以上の特徴点に基づいて前記顔情報を検出し、
前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記複数の特徴点に基づいて前記顔情報を検出する、
請求項1に記載の乗員モニタリング装置。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
を備え、
前記処理部は、
前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリング装置。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
を備え、
前記取得部は、前記撮像画像を継続的に複数回取得し、
前記処理部は、
前記撮像画像が前記第1の画像に該当すると前記判別部により判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
前記撮像画像が前記第2の画像に該当すると前記判別部により判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得部により次に取得される前記撮像画像を対象とした前記判別部による判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリング装置。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得部と、
前記取得部により取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別部と、
前記判別部による判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理部と、
を備え、
前記判別部は、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得部により取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリング装置。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を備え、
前記処理ステップは、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリング方法。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を備え、
前記処理ステップは、
前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリング方法。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を備え、
前記取得ステップは、前記撮像画像を継続的に複数回取得し、
前記処理ステップは、
前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得ステップにより次に取得される前記撮像画像を対象とした前記判別ステップによる判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリング方法。 - 車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を備え、
前記判別ステップは、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得ステップにより取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリング方法。 - コンピュータに、
車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を実行させるための、乗員モニタリングプログラムであって、
前記処理ステップは、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記非装着物によって隠された顔の部位に応じて異なる前記顔情報を検出し、
前記非装着物によって隠された顔の部位が目を含まない場合、前記顔情報として前記目に関する目情報を検出し、前記非装着物によって隠された顔の部位が口を含まない場合、前記顔情報として前記口に関する口情報を検出し、
前記目情報および前記口情報の検出の成否に関わらず、前記顔情報として表情に関する表情情報を検出する、乗員モニタリングプログラム。 - コンピュータに、
車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を実行させるための、乗員モニタリングプログラムであって、
前記処理ステップは、
前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、当該第1の画像の特徴と、前記乗員の顔の三次元の形状を含む構造を表す三次元モデルと、のフィッティングの結果に基づいて、前記顔情報を検出し、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、当該第2の画像の特徴のみに基づいて、前記顔情報を検出する、乗員モニタリングプログラム。 - コンピュータに、
車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を実行させるための、乗員モニタリングプログラムであって、
前記取得ステップは、前記撮像画像を継続的に複数回取得し、
前記処理ステップは、
前記撮像画像が前記第1の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行し、
前記撮像画像が前記第2の画像に該当すると前記判別ステップにより判別された場合、前記顔情報を検出した後、当該顔情報のトラッキングを実行することなく、前記取得ステップにより次に取得される前記撮像画像を対象とした前記判別ステップによる判別結果に応じて異なる態様で、前記顔情報を検出する、乗員モニタリングプログラム。 - コンピュータに、
車両内において乗員の顔が存在する可能性のある領域を撮像することで得られる撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得された前記撮像画像が、装着物によって一部が隠された顔を含む第1の画像と、前記装着物以外の非装着物によって一部が隠された顔を含む第2の画像と、のいずれに該当するかを判別する判別ステップと、
前記判別ステップにおける判別結果に応じて異なる態様で、前記撮像画像に基づいて前記乗員の顔に関する顔情報を検出し、検出結果に基づいて前記乗員の顔の状態変化をモニタリングする処理ステップと、
を実行させるための、乗員モニタリングプログラムであって、
前記判別ステップは、前記撮像画像と同様の情報を含む学習用画像と、当該学習用画像が前記第1の画像と前記第2の画像とのいずれに該当するかと、を機械学習により学習することで生成される学習済みモデルに基づいて、前記取得ステップにより取得された前記撮像画像が前記第1の画像と前記第2の画像とのいずれに該当するかを判別する、乗員モニタリングプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018181801A JP7232008B2 (ja) | 2018-09-27 | 2018-09-27 | 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム |
US16/580,562 US11501561B2 (en) | 2018-09-27 | 2019-09-24 | Occupant monitoring device, occupant monitoring method, and occupant monitoring program |
DE102019125919.3A DE102019125919A1 (de) | 2018-09-27 | 2019-09-26 | Insassenüberwachungseinrichtung, Insassenüberwachungsverfahren und Insassenüberwachungsprogramm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018181801A JP7232008B2 (ja) | 2018-09-27 | 2018-09-27 | 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052755A JP2020052755A (ja) | 2020-04-02 |
JP7232008B2 true JP7232008B2 (ja) | 2023-03-02 |
Family
ID=69781204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018181801A Active JP7232008B2 (ja) | 2018-09-27 | 2018-09-27 | 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11501561B2 (ja) |
JP (1) | JP7232008B2 (ja) |
DE (1) | DE102019125919A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004158013A (ja) | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | 顔検出システム及び方法、並びに顔画像認証方法 |
JP2009201756A (ja) | 2008-02-28 | 2009-09-10 | Omron Corp | 情報処理装置および方法、並びに、プログラム |
JP2010097379A (ja) | 2008-10-16 | 2010-04-30 | Denso Corp | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
JP2018128834A (ja) | 2017-02-08 | 2018-08-16 | トヨタ自動車株式会社 | ドライバ状態検出装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10089543B2 (en) * | 2016-07-29 | 2018-10-02 | Honda Motor Co., Ltd. | System and method for detecting distraction and a downward vertical head pose in a vehicle |
WO2018144537A1 (en) * | 2017-01-31 | 2018-08-09 | The Regents Of The University Of California | Machine learning based driver assistance |
JP6870660B2 (ja) * | 2018-06-08 | 2021-05-12 | トヨタ自動車株式会社 | ドライバ監視装置 |
-
2018
- 2018-09-27 JP JP2018181801A patent/JP7232008B2/ja active Active
-
2019
- 2019-09-24 US US16/580,562 patent/US11501561B2/en active Active
- 2019-09-26 DE DE102019125919.3A patent/DE102019125919A1/de active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004158013A (ja) | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | 顔検出システム及び方法、並びに顔画像認証方法 |
JP2009201756A (ja) | 2008-02-28 | 2009-09-10 | Omron Corp | 情報処理装置および方法、並びに、プログラム |
JP2010097379A (ja) | 2008-10-16 | 2010-04-30 | Denso Corp | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
JP2018128834A (ja) | 2017-02-08 | 2018-08-16 | トヨタ自動車株式会社 | ドライバ状態検出装置 |
Non-Patent Citations (2)
Title |
---|
Mira Jeong et al,Driver Facial Landmark Detection in Real Driving Situations,IEEE Transactions on Circuits and Systems for Video Technology,米国,IEEE,2017年11月02日,VOL.28,NO.10,p.2753-2767,https://ieeexplore.ieee.org/document/8094282 |
福田 収一 他2名,安全運転のためのドライバーの表情からの感情抽出,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2006年06月23日,vol.106,no.124,p.21-31 |
Also Published As
Publication number | Publication date |
---|---|
US11501561B2 (en) | 2022-11-15 |
JP2020052755A (ja) | 2020-04-02 |
DE102019125919A1 (de) | 2020-04-02 |
US20200104569A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6520905B2 (ja) | 車両用運転支援装置 | |
JP2012003764A (ja) | 顔追跡または眼追跡に基づいた表示部の再設定 | |
JP6039074B2 (ja) | 撮像システム | |
CN111107310A (zh) | 照相机参数估计装置、照相机参数估计方法 | |
JP7226197B2 (ja) | 車両制御装置 | |
US11500470B2 (en) | System and method of vehicle aware gesture recognition in vehicles with smart helmets | |
JP7232008B2 (ja) | 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム | |
CN110884426A (zh) | 显示控制装置 | |
JP7173811B2 (ja) | 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム | |
JP2022123925A (ja) | 運転姿勢判定装置 | |
JP7311257B2 (ja) | 眼球情報検出装置、眼球情報検出方法、および乗員モニタリング装置 | |
US12005913B2 (en) | Method of directly controlling autonomous vehicle | |
CN114590203A (zh) | 周边监视装置 | |
JP2021014245A (ja) | 車両周辺表示装置 | |
CN112238812B (zh) | 车辆周边显示装置 | |
JP2020121638A (ja) | 表示制御装置 | |
JP7331511B2 (ja) | 車両周辺表示装置 | |
CN113613979A (zh) | 车辆行驶控制装置 | |
KR20200040320A (ko) | 차량, 차량의 제어 방법 및 영상 탐색 장치 | |
JP7314514B2 (ja) | 表示制御装置 | |
JP2024092546A (ja) | 周辺表示装置 | |
CN117508065A (zh) | 防晕车的控制方法、装置、车辆以及存储介质 | |
WO2021064938A1 (ja) | 表示制御装置、表示システム、及び表示制御方法 | |
JP2021124972A (ja) | 情報処理システム、および情報処理プログラム | |
JP2021126911A (ja) | 環境情報提供システム、環境情報提供方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7232008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |