JP2017217472A - 状態推定装置、状態推定方法、及び状態推定プログラム - Google Patents

状態推定装置、状態推定方法、及び状態推定プログラム Download PDF

Info

Publication number
JP2017217472A
JP2017217472A JP2017108873A JP2017108873A JP2017217472A JP 2017217472 A JP2017217472 A JP 2017217472A JP 2017108873 A JP2017108873 A JP 2017108873A JP 2017108873 A JP2017108873 A JP 2017108873A JP 2017217472 A JP2017217472 A JP 2017217472A
Authority
JP
Japan
Prior art keywords
information
driver
state
face
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017108873A
Other languages
English (en)
Other versions
JP6245398B2 (ja
Inventor
初美 青位
Hatsumi Aoi
初美 青位
航一 木下
Koichi Kinoshita
航一 木下
相澤 知禎
Chitei Aizawa
知禎 相澤
秀人 ▲濱▼走
秀人 ▲濱▼走
Hidehito Hamaso
匡史 日向
Tadashi Hyuga
匡史 日向
芽衣 上谷
Mei Kamiya
芽衣 上谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Application granted granted Critical
Publication of JP6245398B2 publication Critical patent/JP6245398B2/ja
Publication of JP2017217472A publication Critical patent/JP2017217472A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】対象者の取り得る多様な状態を適切に推定可能な技術を提供する。【解決手段】本発明の一側面に係る状態推定装置は、所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、前記撮影画像に基づいて前記対象者の顔の挙動を解析し、前記対象者の顔の挙動に関する第1情報を取得する第1解析部と、前記撮影画像に基づいて前記対象者の身体動作を解析し、前記対象者の身体動作に関する第2情報を取得する第2解析部と、前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定する推定部と、を備える。【選択図】図3A

Description

本発明は、状態推定装置、状態推定方法、及び状態推定プログラムに関する。
近年、車両を運転する運転者を撮影した画像を画像処理することで、居眠り運転、脇見運転、体調急変等の運転者の状態を推定し、重大な事故の発生を防止するための装置の開発が進められている。例えば、特許文献1には、車両の運転者の視線を検出し、検出した視線の停留時間が長い場合には、運転者の集中度が低下してものと推定する集中度判定装置が提案されている。特許文献2には、車両の運転者の免許証の顔画像と運転中の運転者の撮影画像とを比較して、運転者の眠気度及び脇見度を判定する画像解析装置が提案されている。特許文献3には、運転者のまぶたの動きを検出し、検出直後に運転者の顔の角度の変化の有無に応じて、運転者の眠気を判定することで、下方視を眠気と誤検出してしまうことを防止する眠気検出装置が提案されている。特許文献4には、運転者の口の周りの筋肉の動きに基づいて、運転者の眠気レベルを判定する眠気判定装置が提案されている。特許文献5には、撮影画像を縮小リサイズした画像中の運転者の顔を検出し、さらに顔の特定部位(眼、鼻、口)を抽出して、各特定部位の動きから居眠り等の状態を判定する顔状況判定装置が提案されている。また、特許文献6には、運転者の顔の向きの判定、視線の推定等の複数の処理を周期的に順に処理する画像処理装置が提案されている。
特開2014−191474号公報 特開2012−084068号公報 特開2011−048531号公報 特開2010−122897号公報 特開2008−171108号公報 特開2008−282153号公報
本件発明者らは、上記のような運転者の状態を推定する従来の方法には、次のような問題点があることを見出した。すなわち、従来の方法では、顔の向き、眼の開閉、視線の変化等の運転者の顔に生じる部分的な変化にのみ着目して、運転者の状態を推定している。そのため、例えば、右左折時に周辺を確認するために顔を振る、目視確認のために後ろを振り返る、ミラー、メータ及び車載装置の表示を確認するために視線を変化させる等の運転に必要な動作を脇見行為又は集中度の低下した状態と誤ってしまう可能性がある。また、例えば、前方を注視しながら飲食又は喫煙を行う、前方を注視しながら携帯電話で通話を行う等の運転に集中できていない状態を正常な状態と誤ってしまう可能性がある。このように、従来の方法では、顔に生じる部分的な変化を捉えた情報のみを利用しているため、運転者の取り得る多様な状態を反映して、運転者の運転に対する集中度を的確に推定することができないという問題点があることを本件発明者らは見出した。なお、この問題点は、運転者の他、例えば、工場の作業員等の対象者の状態を推定する場合にも同様に生じ得る。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、対象者の取り得る多様な状態を適切に推定可能な技術を提供することである。
本発明の一側面に係る状態推定装置は、所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、前記撮影画像に基づいて前記対象者の顔の挙動を解析し、前記対象者の顔の挙動に関する第1情報を取得する第1解析部と、前記撮影画像に基づいて前記対象者の身体動作を解析し、前記対象者の身体動作に関する第2情報を取得する第2解析部と、前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定する推定部と、を備える。
当該構成に係る状態推定装置は、対象者の顔の挙動に関する第1情報と身体動作に関する第2情報とを取得し、取得した第1情報及び第2情報に基づいて、当該対象者の状態を推定する。そのため、対象者の顔の挙動という局所的な情報だけではなく、対象者の身体動作という大局的な情報を、当該対象者の状態の解析に反映させることができる。したがって、当該構成によれば、対象者の取り得る多様な状態を推定することができる。
上記一側面に係る状態推定装置において、前記第1情報及び前記第2情報はそれぞれ1又は複数の特徴量で表現されてよく、前記推定部は、前記各特徴量の値に基づいて、前記対象者の状態を推定してもよい。当該構成によれば、各情報を特徴量で表現することで、対象者の取り得る多様な状態を推定する計算処理を容易に設定することができる。
上記一側面に係る状態推定装置は、前記各特徴量の優先度合いを定める重みを前記各特徴量に設定する重み設定部を更に備えてよく、前記推定部は、前記重みが適用された前記各特徴量の値に基づいて、前記対象者の状態を推定してもよい。当該構成によれば、各特徴量の重み付けを適切に行うようにすることで、対象者の状態の推定精度を高めることができる。
上記一側面に係る状態推定装置において、前記重み設定部は、前記対象者の状態を過去に推定した結果に基づいて、前記重みの値を決定してもよい。当該構成によれば、過去に推定した結果を反映することで、対象者の状態の推定精度を高めることができる。例えば、対象者が後方に振り返った状態を推定した場合、当該対象者が取り得る次の行動は前方への振り返りと想定される。このような場合には、前方への振り返りに関連する特徴量の重み付けを他の特徴量よりも大きくすることで、対象者の状態の推定精度を高めることができる。
上記一側面に係る状態推定装置は、前記撮影画像の解像度を低下させる解像度変換部を更に備えてよく、前記第2解析部は、解像度を低下させた前記撮影画像に対して前記身体動作の解析を行うことで、前記第2情報を取得してもよい。顔の挙動に比べて、身体動作の挙動は、撮影画像内で大きく表れ得る。そのため、撮影画像から顔の挙動に関する第1情報を取得する際に比べて、撮影画像から身体動作に関する第2情報を取得する際には、情報量の少ない、換言すると、解像度の低い撮影画像を利用可能である。そこで、当該構成では、第2情報を取得する際に、解像度を低下させた撮影画像を利用する。これにより、第2情報を取得する際の演算処理の計算量を低減することができ、対象者の状態を推定するのにかかるプロセッサの負荷を抑えることができる。
上記一側面に係る状態推定装置において、前記第2解析部は、解像度を低下させた前記撮影画像から抽出されるエッジの位置、エッジの強度、及び局所的な周波数成分の少なくとも1つに関する特徴量を前記第2情報として取得してもよい。当該構成によれば、解像度を低下させた撮影画像から身体動作に関する第2情報を適切に取得することができるため、対象者の状態を精度よく推定することができる。
上記一側面に係る状態推定装置において、前記撮影画像は、複数のフレームで構成されてよく、前記第2解析部は、前記撮影画像に含まれる2以上のフレームに対して前記身体動作の解析を行うことにより、前記第2情報を取得してもよい。当該構成によれば、2以上のフレームにわたる身体動作を抽出することができるため、対象者の状態の推定精度を高めることができる。
上記一側面に係る状態推定装置において、前記第1解析部は、前記撮影画像に対して所定の画像解析を行うことで、前記対象者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び眼の開閉の少なくともいずれか1つに関する情報を前記第1情報として取得してもよい。当該構成によれば、顔の挙動に関する第1情報を適切に取得することができるため、対象者の状態を精度よく推定することができる。
上記一側面に係る状態推定装置において、前記撮影画像は、複数のフレームで構成されてよく、前記第1解析部は、前記撮影画像に対する前記顔の挙動の解析を1フレーム単位で行うことにより、前記第1情報を取得してもよい。当該構成によれば、1フレーム単位で第1情報を取得するようにすることで、顔の挙動の細かな変化を検出することができ、対象者の状態を精度よく推定することができるようになる。
上記一側面に係る状態推定装置において、前記対象者は、車両の運転を行う運転者であってよく、前記画像取得部は、前記車両の運転席に着いた前記運転者を撮影するように配置された前記撮影装置から前記撮影画像を取得してもよく、前記推定部は、前記第1情報及び前記第2情報に基づいて、前記運転者の状態を推定してもよい。また、当該推定部は、前記運転者の状態として、前記運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者又はペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション又はオーディオの操作、眼鏡又はサングラスの着脱、及び写真撮影のうち少なくとも1つを推定してもよい。当該構成によれば、運転者の多様な状態を推定可能な状態推定装置を提供することができる。
上記一側面に係る状態推定装置において、前記対象者は、工場の作業者であってよく、前記画像取得部は、所定の作業場所に存在し得る前記作業者を撮影するように配置された前記撮影装置から前記撮影画像を取得してもよく、前記推定部は、前記第1情報及び前記第2情報に基づいて、前記作業者の状態を推定してもよい。また、当該推定部は、前記作業者の状態として、前記作業者の行う作業に対する集中度、又は前記作業者の健康状態を推定してもよい。当該構成によれば、作業者の多様な状態を推定可能な状態推定装置を提供することができる。なお、作業者の健康状態は、何らかの健康に関する指標で表されればよく、例えば、体調、疲労度等の指標で表現されてよい。
なお、上記各形態に係る状態推定装置の別の形態として、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。
例えば、本発明の一側面に係る状態推定方法は、コンピュータが、所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、前記撮影画像に基づいて前記対象者の顔の挙動を解析するステップと、前記顔の挙動を解析するステップの結果、前記対象者の顔の挙動に関する第1情報を取得するステップと、前記撮影画像に基づいて前記対象者の身体動作を解析するステップと、前記身体動作を解析するステップの結果、前記対象者の身体動作に関する第2情報を取得するステップと、前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、を実行する、情報処理方法である。
また、例えば、本発明の一側面に係る状態推定プログラムは、コンピュータに、所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、前記撮影画像に基づいて前記対象者の顔の挙動を解析するステップと、前記顔の挙動を解析するステップの結果、前記対象者の顔の挙動に関する第1情報を取得するステップと、前記撮影画像に基づいて前記対象者の身体動作を解析するステップと、前記身体動作を解析するステップの結果、前記対象者の身体動作に関する第2情報を取得するステップと、前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、を実行させるためのプログラムである。
本発明によれば、対象者の取り得る多様な状態を適切に推定することができる。
図1は、実施の形態に係る状態推定装置の利用場面の一例を模式的に例示する。 図2は、実施の形態に係る状態推定装置のハードウェア構成の一例を模式的に例示する。 図3Aは、実施の形態に係る状態推定装置の機能構成の一例を模式的に例示する。 図3Bは、顔器官状態検出部の機能構成の一例を模式的に例示する。 図4は、運転者の状態とそれを推定するのに利用する情報との組み合わせの一例を例示する。 図5は、運転者の状態のより具体的な推定条件を例示する。 図6は、実施の形態に係る状態推定装置の処理手順の一例を例示する。 図7は、運転者の顔の向き、視線方向、眼の開閉度等を複数の段階に分けて検出する方法の一例を例示する。 図8は、運転者の身体動作に関する特徴量を抽出する処理の過程の一例を例示する。 図9は、各特徴量を算出する過程の一例を例示する。 図10は、各特徴量に基づいて運転者の状態を推定する過程、及び推定結果に基づいて各特徴量の重み付けを変更する過程を例示する。 図11は、運転者の後方への振り返りを推定した後に行われる重み付け処理を例示する。 図12は、運転者が突っ伏す際に検出される各特徴量(時系列情報)を例示する。 図13は、右方向に気を取られた運転者の集中度が低下していく際に検出される各特徴量(時系列情報)を例示する。 図14は、他の形態に係る対象者の状態推定方法を例示する。 図15は、他の形態に係る状態推定装置の構成を例示する。 図16は、他の形態に係る状態推定装置の構成を例示する。 図17は、他の形態に係る状態推定装置の利用場面を例示する。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、一実施形態に係る状態推定装置10を自動運転システム20に適用した例を模式的に例示する。
図1に示されるとおり、自動運転システム20は、カメラ21(撮影装置)と、状態推定装置10と、自動運転支援装置22と、を備えており、車両Cの運転を行う運転者Dを監視しながら、当該車両Cの自動運転を実施するように構成される。車両Cの種類は、自動運転システムを搭載可能であれば、特に限定されなくてもよく、例えば、自動車等であってよい。
カメラ21は、本発明の「撮影装置」に相当し、対象者の存在し得る場所を撮影可能に適宜配置される。本実施形態では、車両Cの運転席に着いた運転者Dが、本発明の「対象者」に相当し、カメラ21は、当該運転者Dを撮影するように適宜配置される。例えば、カメラ21は、車両Cの運転席の前方上部に設置され、運転者Dが存在し得る運転席を正面から連続的に撮影する。これにより、運転者Dの上半身の略全体が含まれ得る撮影画像を取得することができる。そして、カメラ21は、当該撮影により得られた撮影画像を状態推定装置10へ送信する。なお、撮影画像は、静止画であってもよいし、動画であってもよい。
状態推定装置10は、カメラ21から撮影画像を取得し、取得した撮影画像を解析することで、運転者Dの状態を推定するコンピュータである。具体的には、状態推定装置10は、カメラ21から取得した撮影画像に基づいて運転者Dの顔の挙動を解析し、当該運転者Dの顔の挙動に関する第1情報(後述する第1情報122)を取得する。また、状態推定装置10は、撮影画像に基づいて運転者Dの身体動作を解析し、当該運転者Dの身体動作に関する第2情報(後述する第2情報123)を取得する。そして、状態推定装置10は、取得した第1情報及び第2情報に基づいて、運転者Dの状態を推定する。
自動運転支援装置22は、車両Cの駆動系及び制御系を制御することで、運転者Dによる手動により運転操作を行う手動運転モードと、運転者Dによらずに自動的に運転操作を行う自動運転モードと、を実施するコンピュータである。本実施形態では、自動運転支援装置22は、状態推定装置10の推定結果、カーナビゲーション装置の設定等に応じて、手動運転モードと自動運転モードとの切り替えを行うように構成される。
以上のとおり、本実施形態では、運転者Dの顔の挙動に関する第1情報と身体動作に関する第2情報とを取得し、取得した第1情報及び第2情報に基づいて、当該運転者Dの状態を推定する。そのため、運転者Dの顔の挙動という局所的な情報だけではなく、運転者Dの身体動作という大局的な情報を、当該運転者Dの状態の推定に反映することができる。したがって、本実施形態によれば、運転者Dの取り得る多様な状態を推定することができる。また、その推定結果を自動運転の制御に利用することで、運転者Dの取り得る多様な状態に適した車両Cの制御を実現することができる。
§2 構成例
[ハードウェア構成]
次に、図2を用いて、本実施形態に係る状態推定装置10のハードウェア構成の一例について説明する。図2は、本実施形態に係る状態推定装置10のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係る状態推定装置10は、制御部110、記憶部120、及び外部インタフェース130が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
制御部110は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部120は、例えば、RAM、ROM等で構成され、プログラム121、第1情報122、第2情報123等を記憶する。記憶部120は、「メモリ」に相当する。
プログラム121は、状態推定装置10に後述する運転者Dの状態を推定する情報処理(図6)を実行させるためのプログラムである。第1情報122は、カメラ21により得られた撮影画像に対して運転者Dの顔の挙動を解析する処理を実行した結果として得られるものである。また、第2情報123は、カメラ21により得られた撮影画像に対して運転者Dの身体動作を解析する処理を実行した結果として得られるものである。詳細は後述する。
外部インタフェース130は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、外部インタフェース130は、例えば、CAN(Controller Area Network)を介して、カメラ21及び自動運転支援装置22に接続される。
カメラ21は、上記のとおり、車両Cの運転席に着いた運転者Dを撮影するように配置される。例えば、図1の例では、カメラ21は、運転席の前方上方に配置されている。しかしながら、カメラ21の配置場所は、このような例に限定されなくてもよく、運転席に着いた運転者Dを撮影可能であれば、実施の形態に応じて適宜選択されてよい。なお、カメラ21には、一般のデジタルカメラ、ビデオカメラ等が用いられてよい。
自動運転支援装置22は、状態推定装置10と同様に、制御部、記憶部、及び外部インタフェースが電気的に接続されたコンピュータにより構成することができる。この場合、記憶部には、自動運転モードと手動運転モードとを切り替えて、車両Cの運転操作を支援するためのプログラム及び各種データが保存される。また、自動運転支援装置22は、外部インタフェースを介して状態推定装置10と接続される。これにより、自動運転支援装置22は、状態推定装置10の推定結果を利用して、車両Cの自動運転の動作を制御可能に構成される。
なお、外部インタフェース130には、上記以外の外部装置が接続されてもよい。例えば、外部インタフェース130には、ネットワークを介してデータ通信を行うための通信モジュールが接続されてもよい。外部インタフェース130に接続される外部装置は、上記の各装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、図2の例では、状態推定装置10は、1つの外部インタフェース130を備えている。しかしながら、外部インタフェース130の数は、実施の形態に応じて適宜選択可能である。例えば、外部インタフェース130は、接続する外部装置毎に設けられてもよい。
本実施形態に係る状態推定装置10は、以上のようなハードウェア構成を有する。ただし、状態推定装置10のハードウェア構成は、上記の例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。状態推定装置10の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部110は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)等で構成されてよい。記憶部120は、制御部110に含まれるRAM及びROMにより構成されてもよい。記憶部120は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、状態推定装置10には、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータが用いられてもよい。
[機能構成]
次に、図3Aを用いて、本実施形態に係る状態推定装置10の機能構成の一例を説明する。図3Aは、本実施形態に係る状態推定装置10の機能構成の一例を模式的に例示する。
状態推定装置10の制御部110は、記憶部120に記憶されたプログラム121をRAMに展開する。そして、制御部110は、RAMに展開されたプログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図3Aに示されるとおり、本実施形態に係る状態推定装置10は、画像取得部11、第1解析部12、解像度変換部13、第2解析部14、特徴ベクトル生成部15、重み設定部16、及び推定部17を備えるコンピュータとして機能する。
画像取得部11は、運転者Dを撮影するように配置されたカメラ21から撮影画像(以下、「第1画像」とも記載する)を取得する。そして、画像取得部11は、取得した第1画像を第1解析部12及び解像度変換部13に送信する。
第1解析部12は、取得した第1画像に基づいて運転者Dの顔の挙動を解析し、当該運転者Dの顔の挙動に関する第1情報を取得する。第1情報は、顔の挙動に関するものであれば、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。第1情報は、例えば、運転者D(対象者)の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び眼の開閉の少なくとも1つを示すように構成されてもよい。これに応じて、第1解析部12は、次のように構成することができる。
図3Bは、本実施形態に係る第1解析部12の構成を模式的に例示する。図3Bに示されるとおり、本実施形態に係る第1解析部12は、顔検出部31、顔器官点検出部32、及び顔器官状態検出部33を備える。また、顔器官状態検出部33は、眼開閉検出部331、視線検出部332、及び顔向き検出部333を備える。
顔検出部31は、第1画像の画像データを解析することで、第1画像中の運転者Dの顔の有無及び顔の位置を検出する。顔器官点検出部32は、第1画像中で検出された運転者Dの顔の含まれる各器官(眼、口、鼻、耳等)の位置を検出する。このとき、顔器官点検出部32は、顔全体又は顔の一部分の輪郭を補助的に顔の器官として検出してもよい。
そして、顔器官状態検出部33は、第1画像中で位置の検出がなされた運転者Dの顔の各器官の状態を推定する。具体的には、眼開閉検出部331は、運転者Dの眼の開閉度を検出する。視線検出部332は、運転者Dの視線の方向を検出する。顔向き検出部333は、運転者Dの顔の向きを検出する。
ただし、顔器官状態検出部33の構成は、このような例に限定されなくてもよい。顔器官状態検出部33は、これら以外の顔の各器官の状態に関する情報を検出するように構成されてもよい。例えば、顔器官状態検出部33は、顔の動きを検出してもよい。第1解析部12の解析結果は、顔の挙動に関する第1情報(局所的な情報)として特徴ベクトル生成部15に送られる。なお、図3Aに示されるとおり、第1解析部12の解析結果(第1情報)は、記憶部120に蓄積されてもよい。
解像度変換部13は、第1画像の画像データに低解像度化処理を適用することで、当該第1画像よりも解像度を低下させた撮影画像(以下、「第2画像」とも記載する)を生成する。この第2画像は、記憶部120に一時的に保存されてよい。第2解析部14は、解像度を低下させた第2画像に対して運転者Dの身体動作を解析する処理を実施することで、運転者の身体動作に関する第2情報を取得する。
第2情報は、運転者の身体動作に関するものであれば、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。第2情報は、例えば、運転者Dの身体の動き、姿勢等を示すように構成されてよい。第2解析部14の解析結果は、運転者Dの身体動作に関する第2情報(大局的な情報)として特徴ベクトル生成部15に送られる。なお、第2解析部14の解析結果(第2情報)は、記憶部120に蓄積されてもよい。
特徴ベクトル生成部15は、第1情報及び第2情報を受け取り、運転者Dの顔の挙動及び身体動作を示す特徴ベクトルを生成する。後述するとおり、第1情報及び第2情報はそれぞれ、各検出結果により得られる特徴量で表現される。この第1情報及び第2情報を構成する各特徴量をまとめて「動作特徴量」と称してもよい。すなわち、動作特徴量は、運転者Dの顔の器官に関する情報、及び運転者Dの身体動作に関する情報の両方を含む。特徴ベクトル生成部15は、各動作特徴量を要素として、特徴ベクトルを生成する。
重み設定部16は、生成される特徴ベクトルの各要素(各特徴量)に対して、当該各要素の優先度合いを定める重みを設定する。重みの値は、適宜決定されてよい。本実施形態に係る重み設定部16は、後述する推定部17により運転者Dの状態を過去に推定した結果に基づいて、各要素の重みの値を決定する。重み付けのデータは、記憶部120に適宜保存される。
推定部17は、第1情報及び第2情報に基づいて、運転者Dの状態を推定する。具体的には、推定部17は、特徴ベクトルに重みを適用することで得られる状態ベクトルにより、運転者Dの状態を推定する。推定対象となる運転者Dの状態は、実施の形態に応じて適宜決定されてよい。推定部17は、運転者Dの状態として、例えば、運転者Dの前方注視、眠気、脇見、服の着脱、電話操作、窓側又は肘掛けへの寄り掛かり、同乗者又はペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション又はオーディオ操作、眼鏡又はサングラスの着脱、及び写真撮影のうちの少なくとも1つを推定してもよい。
図4は、運転者Dの状態とそれを推定するのに利用する情報との組み合わせの一例を例示する。図4に示されるように、顔の挙動に関する第1情報(局所的な情報)と身体動作に関する第2情報(大局的な情報)とを組み合わせることで、運転者Dの多様な状態を適切に推定することができる。なお、図4において、「○」は、対象の運転者(ドライバ)の状態を推定するのに対象の情報が必要であることを示している。また、「△」は、対象の運転者(ドライバ)の状態を推定するのに対象の情報を利用するのが好ましいことを示している。
図5は、運転者Dの状態を推定する条件の一例を例示する。例えば、運転者Dが眠気に襲われている場合、運転者Dの眼は閉じた状態になり、かつ運転者Dの身体の動きが無くなり得る。そこで、推定部17は、第1解析部12により検出された眼の開閉度を局所的な情報として、かつ第2解析部14により検出された運転者Dの動きに関する情報を大局的な情報として利用して、運転者Dが眠気に襲われている状態であるか否かを判定してもよい。
また、例えば、運転者Dが脇見運転をしている場合、運転者Dの顔の向き及び視線が正面から外れ、かつ運転者Dの身体が正面以外の方向を向いた状態になり得る。そこで、推定部17は、第1解析部12により検出された顔の向き及び視線方向の情報を局所的な情報として、かつ第2解析部14により検出された運転者Dの姿勢に関する情報を大局的な情報として利用して、運転者Dが脇見運転をしているか否かを判定してもよい。
また、例えば、運転者Dが携帯端末を操作中(電話中)である場合、運転者Dの顔の向きが正面から外れ、それに伴って運転者Dの姿勢が崩れ得る。そこで、推定部17は、第1解析部12により検出された顔の向きの情報を局所的な情報として、かつ第2解析部14により検出された運転者Dの姿勢に関する情報を大局的な情報として利用して、運転者Dが携帯端末を操作中であるか否かを判定してもよい。
また、例えば、運転者Dが窓(ドア)側に肘を突いて寄り掛かっている場合には、運転者Dの顔の位置が運転に適した所定の位置になく、身体の動きが無くなり、かつ姿勢が崩れた状態になり得る。そこで、推定部17は、第1解析部12により検出された顔の位置を局所的な情報として、かつ第2解析部14により検出された運転者Dの動き及び姿勢に関する情報を大局的な情報として利用して、運転者Dが窓側に寄り掛かっているか否かを判定してもよい。
また、例えば、運転者Dが同乗者又はペットから運転妨害を受けている場合には、運転者Dの顔の向き及び視線が正面から外れ、妨害に応じて身体が動き、かつ妨害を避けた姿勢になり得る。そこで、推定部17は、第1解析部12により検出された顔の向き及び視線方向の情報を局所的な情報として、かつ第2解析部14により検出された運転者Dの動き及び姿勢に関する情報を大局的な情報として利用して、運転者Dが運転妨害を受けているか否かを判定してもよい。
また、例えば、運転者Dが突然の病気(呼吸困難、心臓発作等)を発症した場合には、顔の向き及び視線が正面から外れ、眼が閉じた状態になり、かつ所定の身体部位を抑えるような動き及び姿勢になり得る。そこで、推定部17は、第1解析部12により検出された眼の開閉度、顔の向き、及び視線の情報を局所的な情報として、かつ第2解析部14により検出された運転者Dの動き及び姿勢に関する情報を大局的な情報として利用して、運転者Dが突然の病気を発症したか否かを判定してもよい。
状態推定装置10の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、状態推定装置10の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、状態推定装置10の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
§3 動作例
次に、図6を用いて、状態推定装置10の動作例を説明する。図6は、状態推定装置10の処理手順の一例を例示するフローチャートである。以下で説明する運転者Dの状態を推定する処理手順は、本発明の「状態推定方法」に相当する。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS11)
まず、ステップS11では、制御部110は、画像取得部11として機能し、車両Cの運転席に着いた運転者Dを撮影するように配置されたカメラ21から撮影画像を取得する。撮影画像は、動画像であってもよいし、静止画であってもよい。本実施形態では、制御部110は、撮影画像の画像データをカメラ21から連続的に取得する。これにより、取得される撮影画像は、複数のフレームで構成される。
(ステップS12〜S14)
次のステップS12〜S14では、制御部110は、第1解析部12として機能し、取得した撮影画像(第1画像)に対して所定の画像解析を行うことで、当該撮影画像に基づいて運転者Dの顔の挙動を解析し、運転者Dの顔の挙動に関する第1情報を取得する。
具体的には、まず、ステップS12では、制御部110は、第1解析部12の顔検出部31として機能して、取得した撮影画像に含まれる運転者Dの顔を検出する。顔の検出には、公知の画像解析方法が用いられてよい。これにより、制御部110は、顔の検出可否及び位置に関する情報を取得する。
次のステップS13では、制御部110は、ステップS12において、撮影画像中に顔が検出されたか否かを判定する。顔が検出された場合、制御部110は、次のステップS14に処理を進める。一方、顔が検出されなかった場合には、制御部110は、ステップS14の処理をスキップして、次のステップS15に処理を進める。この場合、制御部110は、顔の向き、眼の開閉度、及び視線方向の検出結果を0とする。
次のステップS14では、制御部110は、顔器官点検出部32として機能して、検出した顔の画像内において、運転者Dの顔に含まれる各器官(眼、口、鼻、耳等)を検出する。各器官の検出には、公知の画像解析方法が用いられてよい。これにより、制御部110は、顔の各器官の位置に関する情報を取得することができる。また、制御部110は、顔器官状態検出部33として機能し、検出した各器官の状態を解析することで、顔の向き、顔の動き、眼の開閉度、視線方向等を検出する。
ここで、図7を用いて、顔の向き、眼の開閉度、及び視線方向の検出方法の一例について説明する。図7は、顔の向き、眼の開閉度、及び視線方向の検出方法の一例を模式的に例示する。図7に例示されるように、制御部110は、顔向き検出部333として機能し、撮影画像内における運転者Dの顔の向きを、縦方向及び横方向の2軸方向について、縦3段階、横5段階の度数で検出する。また、制御部110は、視線検出部332として機能し、運転者Dの視線方向を、顔の向きと同じく、縦方向及び横方向の2軸方向について、縦3段階、横5段階の度数で検出する。更に、制御部110は、眼開閉検出部331として機能し、撮影画像内における運転者Dの眼の開閉度を10段階に分けて検出する。
以上により、制御部110は、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線方向、顔の各器官の位置、及び眼の開閉度に関する情報を第1情報として取得する。この第1情報の取得は、フレーム毎に行われるのが好ましい。すなわち、取得される撮影画像は複数のフレームで構成されているため、制御部110は、撮影画像に対する顔の挙動の解析を1フレーム単位で行うことで、第1情報を取得してもよい。この場合、制御部110は、全てのフレームに対して顔の挙動の解析を行ってもよいし、所定数のフレームおきに顔の挙動の解析を行ってもよい。これにより、運転者Dの顔の挙動をフレーム毎に細かく検出することができるため、当該運転者Dの顔の挙動を詳細に示す第1情報を取得することができる。なお、本実施形態に係るステップS12〜S14までの処理には、カメラ21によって取得された撮影画像(第1画像)がそのまま利用される。
(ステップS15及びS16)
図6に戻り、次のステップS15では、制御部110は、解像度変換部13として機能し、ステップS11で取得した撮影画像の解像度を低下させる。これにより、制御部110は、低解像度の撮影画像(第2画像)をフレーム単位で形成する。低解像度化の処理方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。制御部110は、例えば、ニアレストネイバー法、バイリニア補間法、バイキュービック法等の手法により、低解像度の撮影画像を形成してもよい。
次のステップS16では、制御部110は、第2解析部14として機能し、解像度を低下させた撮影画像(第2画像)に対して運転者Dの身体動作の解析を行うことで、当該運転者Dの身体動作に関する第2情報を取得する。第2情報は、例えば、運転者Dの姿勢、上半身の動き、運転者Dの有無等に関する情報を含んでよい。
ここで、図8を用いて、運転者Dの身体動作に関する第2情報を検出する方法の一例について説明する。図8は、低解像度化した撮影画像から第2情報を検出する過程の一例を模式的に例示する。図8の例では、制御部110は、第2画像から画像特徴量として第2情報を抽出する。
具体的には、制御部110は、各画素の輝度値に基づいて、第2画像内でエッジを抽出する。エッジの抽出には、予め設計済みの画像フィルタ(例えば、3×3のサイズ)が用いられてもよい。また、エッジの抽出には、機械学習によりエッジ検出を学習済みの学習器(例えば、ニューラルネットワーク等)が用いられてもよい。制御部110は、画像フィルタ又は学習器に第2画像の各画素の輝度値を入力することで、当該第2画像内でエッジを検出することができる。
次に、制御部110は、輝度値及び抽出されたエッジに関する情報を、前フレームの第2画像の輝度値及び抽出されたエッジに関する情報とそれぞれ比較して、フレーム間の差分を求める。「前フレーム」とは、現在処理中のフレームから見て所定数(例えば、1つ)分だけ前のフレームである。当該比較処理の結果、制御部110は、現在フレームの輝度値情報、現在フレームのエッジの位置を示すエッジ情報、前フレームと比較した輝度値差分情報、前フレームと比較したエッジ差分情報という4種類の情報を画像特徴量(第2情報)として取得することができる。輝度値情報及びエッジ情報は、主に、運転者Dの姿勢及び運転者Dの有無を示す。また、輝度値差分情報及びエッジ差分情報は、主に、運転者Dの(上半身の)動きを示す。
制御部110は、上記のようなエッジの位置の他に、エッジの強度、及び画像の局所的な周波数成分に関する画像特徴量を取得してもよい。エッジの強度とは、画像に含まれるエッジの位置の周辺の輝度の変化の度合いである。画像の局所的な周波数成分とは、例えば、ガボール・フィルタ、ソーベルフィルタ、ラプラシアンフィルタ、キャニーエッジ検出器、ウェーブレットフィルタ等の画像処理を画像に施すことにより得られる画像特徴量である。また、画像の局所的な周波数成分は、上記の画像処理に限られず、機械学習により予め設計されたフィルタにより画像処理を施すことで得られる画像特徴量であってもよい。これにより、運転者D毎に体格差があるケース、運転席がスライド移動可能であることで、運転者Dの位置が相違するケース等であっても、運転者Dの身体状態を適切に表す第2情報を取得することができる。
なお、本実施形態では、撮影画像(第1画像)が複数のフレームで構成されているため、低解像度化した撮影画像(第2画像)も複数のフレームで構成される。そこで、制御部110は、第2画像に含まれる2以上のフレームに対して身体動作の解析を行うことにより、上記輝度値差分情報、エッジ差分情報等の第2情報を取得する。このとき、制御部110は、差分を算出するフレームのみを記憶部120又はRAMに保存してもよい。これにより、不要なフレームを保存しなくてもよくなり、メモリ容量を効率的に利用することができるようになる。また、身体動作の解析に利用する複数のフレームは互いに時刻が隣接するものであってもよいが、運転者Dの身体動作の変化は顔の各器官の変化と比べてゆっくりであると想定されるため、身体動作の解析には、所定の時間間隔を空けた複数のフレームを利用するのが好ましい。
また、運転者Dの身体動作は、顔の挙動に比べて、撮影画像内に大きく表れ得る。そのため、上記ステップS12〜S14により顔の挙動に関する第1情報を取得する際に比べて、本ステップS16で身体動作に関する第2情報を取得する際には、解像度の低い撮影画像を利用可能である。そこで、本実施形態では、制御部110は、本ステップS16を実施する前に、ステップS15を実施することで、顔の挙動に関する第1情報を取得するための撮影画像(第1画像)から低解像度化した撮影画像(第2画像)を取得する。そして、制御部110は、低解像度化した撮影画像(第2画像)を利用して、運転者Dの身体動作に関する第2情報を取得している。これにより、第2情報を取得する際の演算処理の計算量を低減することができ、本ステップS16の処理にかかる制御部110の負荷を抑えることができる。
なお、上記ステップS15及びS16は、上記ステップS12〜S14と並列に実行されてもよい。上記ステップS15及びS16は、上記ステップS12〜S14の前に実行されてもよい。上記ステップS15及びS16は、上記ステップS12〜S14の間に実行されてもよい。上記ステップS15が、上記ステップS12〜S14のいずれかの前に実行され、ステップS16が、上記ステップS12〜S14の後に実行されてもよい。すなわち、上記ステップS15及びS16は、上記ステップS12〜S14に依存せずに実行されてよい。
(ステップS17)
図6に戻り、次のステップS17では、制御部110は、特徴ベクトル生成部15として機能し、取得した第1情報及び第2情報から特徴ベクトルを生成する。
ここで、図9を用いて、特徴ベクトルを生成する過程の一例について説明する。図9は、特徴ベクトルの各要素(各特徴量)を算出する過程の一例を模式的に例示する。図9に例示されるとおり、カメラ21により連続的に撮影を行うことで、上記ステップS11で取得される撮影画像(第1画像)は、時刻t=0、1、・・・、Tの複数のフレームで構成される。
上記ステップS12〜S14では、制御部110は、第1解析部12として機能して、取得した第1画像について、1フレーム単位で顔の挙動を解析する。これにより、制御部110は、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線方向、顔の各器官の位置、及び眼の開閉度をそれぞれ示す特徴量(ヒストグラム)を第1情報として算出する。
また、上記ステップS15では、制御部110は、解像度変換部13として機能し、第1画像を低解像度化した第2画像を形成する。そして、上記ステップS16では、制御部110は、第2解析部14として機能して、形成した第2画像に含まれる2以上のフレームから画像特徴量を第2情報として抽出する。
制御部110は、上記で第1情報及び第2情報として取得した各特徴量を特徴ベクトルの各要素に設定する。これにより、制御部110は、運転者Dの顔の挙動と身体動作とを示す特徴ベクトルを生成する。
(ステップS18〜S20)
図6に戻り、次のステップS18では、制御部110は、重み設定部16として機能し、特徴ベクトルの各要素(各特徴量)に対して、当該各要素の優先度合いを定める重みを設定する。次のステップS19では、制御部110は、設定した重みを特徴ベクトルに適用することで得られる状態ベクトル、すなわち、設定した重みが適用された各特徴量の値に基づいて、運転者Dの状態を推定する。上記図4及び図5のとおり、制御部110は、運転者Dの状態として、例えば、運転者の前方注視、眠気、脇見、服の着脱、電話操作、窓側又は肘掛けへの寄り掛かり、同乗者又はペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション又はオーディオ操作、眼鏡又はサングラスの着脱、及び写真撮影のうちの少なくとも1つを推定することができる。
次のステップS20では、制御部110は、自動運転システム20からの指令(不図示)に応じて、運転者Dの状態の推定を継続するか否かを判定する。運転者Dの状態の推定を継続しないと判定した場合、制御部110は、本動作例に係る処理を終了する。例えば、車両Cが停車した場合に、制御部110は、運転者Dの状態の推定を継続しないと判定し、運転者Dの状態の監視を終了する。一方、運転者Dの状態の推定を継続すると判定した場合、制御部110は、ステップS11から処理を繰り返す。例えば、車両Cの自動運転が継続している場合に、制御部110は、運転者Dの状態の推定を継続すると判定して、ステップS11から処理を繰り返すことで、運転者Dの状態を継続的に監視する。
この運転者Dの状態を繰り返し推定する過程で、制御部110は、上記ステップS18では、ステップS19により運転者Dの状態を過去に推定した結果に基づいて、各要素に対する重みの値を決定する。すなわち、制御部110は、運転者Dの状態の推定結果に基づいて、その推定を実施した次のサイクルで運転者Dの状態を推定する際に重要視される項目(顔の器官、身体の動き、姿勢等)が優先されるように各特徴量に対する重みを決定する。
例えば、運転者Dの後方への振り返りをある時点で推定した場合、その時点からしばらくの間、取得される第1画像には、運転者Dの顔の眼等の器官は殆ど写っていないが、当該運転者Dの顔の輪郭は写っていると想定される。そこで、次のサイクルで推定される運転者Dの状態は前方への振り返りであると推測して、制御部110は、顔の有無を示す特徴量の重みを大きくし、視線方向及び眼の開閉度を示す特徴量の重みが小さくなるように重み付けを行ってもよい。
なお、制御部110は、ステップS18により重み付けの値を変更しながら、運転者Dの状態の推定結果が所定の確度を超えるまで、ステップS19による推定処理を繰り返し実行してもよい。推定の確度を定める閾値は、予め設定されて記憶部120に保存されていてもよいし、利用者により設定されてもよい。
ここで、図10及び図11を用いて、前のサイクルの推定結果に基づいて次のサイクルで利用する重みを変更する処理について具体的に説明する。図10は、各特徴量に基づいて運転者の状態を推定する過程及び推定結果に基づいて各特徴量の重み付けを変更する過程を例示する。図11は、運転者Dの後方への振り返りを推定した後に行われる重み付け処理を例示する。
図10に例示されるように、制御部110は、上記ステップS17により、特徴ベクトルxを取得する。特徴ベクトルxは、顔の有無、顔の向き、視線方向、眼の開閉度等の特徴量(第1情報)と身体の動き、姿勢等の特徴量(第2情報)とを各要素として含んでいる。制御部110は、この特徴ベクトルxの各要素に重みを適用することで、すなわち、特徴ベクトルxと重みベクトルWとの積を計算することで、状態ベクトルy(=Wx)を算出する。重みベクトルWの各要素には、対応する各特徴量の重みが設定される。上記ステップS19では、制御部110は、この状態ベクトルyに基づいて、運転者Dの状態を推定する。
図10の例では、制御部110は、状態ベクトルyの各要素の中で最も値の大きい要素のインデックス(ArgMax(y(i)))を推定結果として出力する。y=(y(1)、y(2)、y(3))と表現した場合に、ArgMax(y(i))は、y(i)(i=1,2,3)のうちで最もy(i)が大きくなるiを示す。例えば、状態ベクトルy=(0.3,0.5,0.1)であったとすると、ArgMax(y(i))=2となる。
この例では、状態ベクトルyの各要素は、運転者Dの状態と関連付けられる。例えば、1番目の要素が「前方注視」、2番目の要素が「眠気あり」、及び3番目の要素が「脇見」に関連付けられているとすると、上記「ArgMax(y(i))=2」との出力は、運転者Dが「眠気あり」の状態であるとの推定結果を示す。
制御部110は、この推定結果に基づいて、次のサイクルで利用する重みベクトルWの各要素の値を変更する。推定結果に対応する重みベクトルWの各要素の値は、実施の形態に応じて適宜決定されてよい。重みベクトルWの各要素の値は、例えば、強化学習等の機械学習の手法によって決定されてよい。なお、過去の推定結果が存在しない場合には、制御部110は、予め与えられた初期値等で適宜重み付けを行ってもよい。
例えば、ある時点でのArgMax(y(i))の値が、運転者Dの後方への振り返りを示していたとする。この場合、運転者Dの次の動作は、前方への振り返りであると予測される。そのため、撮影画像中に運転者Dの顔が検出されるまで、顔の向き、視線方向、眼の開閉度等の顔の器官に関する特徴量は、運転者Dの状態の推定に不要と想定される。
そこで、運転者Dの後方への振り返りを推定した場合、図11に例示されるように、制御部110は、次のサイクル以降のステップS18において、顔の向き、視線方向、眼の開閉度等の顔の器官に関する各特徴量の重み付けを徐々に小さくしてもよい。一方、制御部110は、顔の有無に関する特徴量の重みを徐々に大きくしてもよい。これにより、次のサイクル以降で、運転者Dの前方への振り返りが推定されるまで、顔の器官に関する特徴量が運転者Dの状態の推定に反映されないようにすることができる。なお、運転者Dの前方への振り返りを推定した後には、取得される撮影画像には運転者Dの顔の各器官が写り得る。そのため、制御部110は、運転者Dの前方への振り返りを推定した場合、次のサイクル以降のステップS18において、顔の向き、視線方向、眼の開閉度等の顔の器官に関する各特徴量の重み付けを大きくしてもよい。
なお、重みの値が0である又は閾値より小さい場合には、対象の特徴量の検出を一旦停止させてもよい。例えば、上記の公報への振り返りの例の場合、顔の向き、視線方向、眼の開閉度等の顔の器官に関する各特徴量に対する重みが0になったときには、制御部110は、上記ステップS14において、顔の向き、視線方向、及び眼の開閉度の検出を省略してもよい。これにより、一連の処理の計算量を低減することができ、運転者Dの状態の推定処理を高速に実行することができるようになる。
次に、図12及び図13を用いて、ステップS11〜S20の一連の処理が繰り返されることで検出される各特徴量及びそれにより推定される運転者Dの状態の具体例について説明する。図12は、運転者Dが突っ伏す際に検出される各特徴量(時系列情報)を例示する。また、図13は、右方向に気を取られた運転者Dの集中度が低下していく際に検出される各特徴量(時系列情報)を例示する。
まず、図12の例について説明する。運転者Dが突っ伏す際には、検出されていた顔が検出されなくなり、身体が大きく動いた後にその身体の動きが停止し、かつ姿勢が、通常の運転姿勢から前傾姿勢に移行するものと想定される。そのため、重みベクトルWを適宜設定することで、制御部110は、ステップS19において、このような変化を捉えて、運転者Dが突っ伏しの状態にあることを推定する。
図12の例では、フレームNo.4まで検出されていた運転者Dの顔が、フレームNo.4からNo.5にかけて、見えなく(検出されなく)なっている。また、運転者Dの身体の動きがフレームNo.3からNo.5にかけて大きくなり、フレームNo.6で当該身体の動きが止まっている。更に、フレームNo.2からNo.3にかけて、運転者Dの姿勢が通常の運転姿勢から前傾姿勢へ移行している。制御部110は、状態ベクトルyによりこの傾向を捉えて、フレームNo.3からNo.6にかけて、運転者Dが突っ伏し状態に移行したと推定してもよい。
次に、図13の例について説明する。図13は、運転者Dの運転に対する集中力が散漫になっていく場面を例示する。運転者Dが運転に集中しているときには、運転者Dは、あまり身体を動かさずに、前方方向を注視する。これに対して、運転に対する集中力が低下してきたときには、運転者Dは、前方以外の方向に顔又は視線を向けたり、身体を大きく動かしたりする。そのため、重みベクトルWを適宜設定することで、制御部110は、ステップS19において、運転者Dの顔の向き、視線方向、及び身体の動きに関する各特徴量に基づいて、運転者Dの状態として、当該運転者Dの運転に対する集中度を推定してもよい。
図13の例では、フレームNo.3からNo.4にかけて、運転者Dの顔の向きが前方向から右方向へ変化している。また、運転者Dの視線は、フレームNo.2からNo.4にかけて前方向から右方向に変化した後、フレームNo.6で一旦前方向に戻り、フレームNo.7以降で再び右方向へ変化している。更に、運転者Dの動きが、フレームNo.4からNo.5にかけて大きくなっている。制御部110は、状態ベクトルyによりこの傾向を捉えて、No.2から徐々に右方向の物体に気を取られて、姿勢がだんだんと右向きになり、集中度が低下していっていると推定してもよい。
制御部110は、このような推定結果を自動運転支援装置22に送信する。自動運転支援装置22は、この状態推定装置10の推定結果を利用して、自動運転の動作を制御する。例えば、運転者Dが急病を発症したことを推定した場合に、自動運転支援装置22は、車両Cの動作を手動運転モードから自動運転モードに切り替えて、当該車両Cを安全な場所(例えば、付近の病院、駐車場等)に移動した後に停止するように制御してもよい。
[作用・効果]
以上のように、本実施形態に係る状態推定装置10は、上記ステップS12〜S14により、運転者Dを撮影するように設定されたカメラ21から取得した撮影画像(第1画像)に基づいて、運転者Dの顔の挙動に関する第1情報を取得する。また、状態推定装置10は、上記ステップS16により、低解像度化した撮影画像(第2画像)に基づいて、運転者Dの身体動作に関する第2情報を取得する。そして、状態推定装置10は、ステップS19により、取得した第1情報及び第2情報に基づいて、運転者Dの状態を推定する。
そのため、本実施形態では、運転者Dの顔の挙動という局所的な情報(第1情報)だけではなく、運転者Dの身体動作という大局的な情報(第2情報)を、当該運転者Dの状態を推定するのに反映することができる。したがって、本実施形態によれば、上記図4、図5、図12、及び図13に例示されるように、運転者Dの取り得る多様な状態を推定することができる。
また、ステップS11〜S20の処理を繰り返し実行する過程で、制御部110は、ステップS18において、過去のサイクルの推定結果に基づいて、現サイクルの推定に適するように、特徴ベクトルxに適用する重みベクトルWの各要素の値を変更することができる。そのため、本実施形態によれば、多様な運転者Dの状態を高精度に推定することができる。
また、身体動作は、顔の挙動に比べて、撮影画像内に大きく表れ得るため、顔の挙動の解析に利用する撮影画像よりも解像度の低い撮影画像を利用して、当該身体動作の解析を十分に行うことができる。そのため、本実施形態では、顔の挙動の解析には、カメラ21から取得された撮影画像(第1画像)をそのまま利用し、身体動作の解析には、カメラ21から取得された撮影画像を低解像度化した撮影画像(第2画像)を利用している。これにより、運転者Dの状態を推定する精度を落とさずに、身体動作の解析にかかる計算量を低減し、プロセッサの負荷を抑えることができる。したがって、本実施形態によれば、多様な運転者Dの状態を高速、低負荷かつ高精度に推定することができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
上記実施形態では、第1情報は、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線方向、顔の各器官の位置、及び眼の開閉度に関する特徴量を含む。また、第2情報は、現在フレームの輝度値情報、現在フレームのエッジの位置を示すエッジ情報、前フレームと比較した輝度値差分情報、及び前フレームと比較したエッジ差分情報に関する特徴量を含む。しかしながら、第1情報及び第2情報それぞれに含まれる特徴量の数は、実施の形態に応じて適宜決定されてよい。第1情報及び第2情報はそれぞれ1又は複数の特徴量(動作特徴量)で表現されてよい。また、第1情報及び第2情報それぞれの構成は、実施の形態に応じて適宜決定されてよい。第1情報は、運転者Dの顔の検出可否、顔の位置、顔の向き、顔の動き、視線方向、顔の各器官の位置、及び眼の開閉度の少なくとも1つに関する情報により構成されてよい。また、第2情報は、第2画像から抽出されるエッジの位置、エッジの強度、及び画像の局所的な周波数成分の少なくとも1つに関する特徴量により構成されてもよい。第1情報及び第2情報はそれぞれ、上記実施形態とは異なる特徴量、情報等により構成されてよい。
<4.2>
また、上記実施形態では、制御部110は、低解像度化した第2画像を利用して、運転者Dの身体動作の解析を行っている(上記ステップS16)。しかしながら、身体動作の解析は、このような形態に限られなくてもよく、カメラ21から取得した第1画像に対して行われてもよい。この場合、上記機能構成において、解像度変換部13は省略されてもよい。また、上記処理手順において、ステップS15は、省略されてよい。
<4.3>
上記ステップS12〜14における顔の挙動の解析、ステップS16における身体動作の解析、ステップS18における重み付け、及びステップS19における運転者Dの状態の推定には、それぞれの処理を機械学習した学習済みの学習器(例えば、ニューラルネットワーク等)を利用してもよい。例えば、顔の挙動の解析及び身体動作の解析それぞれには、撮影画像を利用するため、その学習器には、畳み込み層とプーリング層とが交互に接続した構造を有する畳み込みニューラルネットワークを用いるのが好ましい。また、過去の推定結果を反映するためには、学習器には、例えば、中間層から入力層への経路のように、内部にループを有する再帰型ニューラルネットワークを用いるのが好ましい。
図14は、再帰型ニューラルネットワークを利用して第2解析部14を構成した例を示す。第2解析部14を構成する再帰型ニューラルネットワークは、いわゆる深層学習に利用される多層構造のニューラルネットワークである。図14の例では、制御部110は、時刻t=0、1、・・・、T−1、Tまでの間に取得された第2画像の各フレームをニューラルネットワークの入力層に入力する。そして、制御部110は、入力側から順に、各層に含まれる各ニューロンの発火判定を行う。これにより、制御部110は、ニューラルネットワークから身体動作の解析結果を示す出力を得る。
なお、このニューラルネットワークは、入力層と出力層との間に設けられた中間層の出力が当該中間層の入力に再帰しているため、時刻t1の中間層の出力が時刻t1+1の中間層の入力に利用される。これにより、過去の解析結果を次の解析に活用することができるため、運転者Dの身体動作の解析精度を高めることができる。
<4.4>
上記実施形態では、推定される運転者Dの状態として、前方注視、眠気、脇見、服の着脱、電話操作、窓側又は肘掛けへの寄り掛かり、同乗者又はペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション又はオーディオ操作、眼鏡又はサングラスの着脱、及び写真撮影を例示した。しかしながら、推定対象となる運転者Dの状態は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部110は、居眠り、モニタ画面の注視等の他の状態を運転者Dの状態推定の候補としてもよい。また、状態推定装置10は、推定対象となる状態の候補をディスプレイ(不図示)等に提示し、推定対象とする状態の指定を受け付けてもよい。
<4.5>
上記実施形態では、制御部110は、ステップS12〜14において、運転者Dの顔及びその器官を検出することで、当該運転者Dの顔の向き、視線方向(視線の変化)、眼の開閉度等を検出する。しかしながら、検出対象となる顔の挙動は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部110は、運転者Dの瞬きの回数、呼吸の速さ等の上記以外の情報を取得してもよい。また、例えば、制御部110は、第1情報及び第2情報以外に、脈拍等の生体情報を利用して、運転者の状態を推定してもよい。
<4.6>
上記実施形態では、図1及び図3Aに例示するように、車両Cの自動運転制御を行う自動運転支援装置22を備える自動運転システム20に状態推定装置10を適用した例について説明した。しかしながら、状態推定装置10の適用範囲は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
例えば、図15に示されるとおり、状態推定装置10は、自動運転支援装置22を持たない車両システム200に適用されてもよい。図15は、自動運転支援装置22を持たない車両システム200に状態推定装置10を適用した例を模式的に例示する。自動運転支援装置22を備えない点を除き、本変形例は、上記実施形態と同様に構成される。この場合、本変形例に係る車両システム200は、運転者Dの状態の推定結果に基づいて、適宜警告等を行ってもよい。例えば、居眠り、危険運転等の危険を伴う状態を推定した場合に、車両システム200は、運転者Dに対して自動的に警告を発してもよい。また、急病の発症を推定した場合には、車両システム200は、救急車の要請を行う連絡を行ってもよい。これにより、自動運転支援装置22を備えない車両システム200であっても、状態推定装置10の推定結果を有向に活用することができる。
<4.7>
上記実施形態では、図3A、図9及び図10に示すように、制御部110は、運転者Dの状態の推定結果に基づいて、特徴ベクトルxに適用する重みベクトルWの各要素の値を変更する。しかしながら、この重み付けの処理は、省略されてもよい。また、第1情報及び第2情報は、特徴量以外の形態で表現されてもよい。
この場合、図16に例示されるように、状態推定装置10の機能構成のうち、特徴ベクトル生成部15及び重み設定部16は、省略されてもよい。図16は、本変形例に係る状態推定装置100を模式的に例示する。状態推定装置100は、特徴ベクトル生成部15及び重み設定部16を備えない点を除いて、上記実施形態に係る状態推定装置10と同様に構成される。
この状態推定装置100は、第1画像に基づいて運転者Dの顔の挙動に関する第1情報を検出し、第1画像を低解像度化した第2画像に基づいて運転者Dの身体動作に関する第2情報を検出する。そして、状態推定装置100は、これらの検出結果を融合することで、運転者Dの状態を推定する。これにより、上記実施形態と同様に、運転者Dの状態を推定する精度を落とさずに、身体動作の解析にかかる計算量を低減し、プロセッサの負荷を抑えることができる。したがって、本変形例によれば、多様な運転者Dの状態を高速、低負荷かつ高精度に推定することができる。
<4.8>
上記実施形態では、図1に示すとおり、車両Cに設置された1台のカメラ21によって連続的に撮影された運転者Dが存在し得る運転席の撮影画像を用いて、運転者Dの状態を推定している。しかしながら、撮影画像を取得するためのカメラ21の数は、1台に限られなくてもよく、複数台であってもよい。例えば、車両Cには、運転者Dを様々な角度から撮影するように、複数台のカメラ21が運転者Dの周囲に適宜設置されてよい。そして、状態推定装置10は、各カメラ21から取得される撮影画像を利用して、運転者Dの状態を推定してもよい。これにより、1台のカメラでは撮影できなかった角度の撮影画像を得ることができるため、運転者Dの状態を更に精度よく推定することができるようになる。
<4.9>
上記実施形態では、状態を推定する対象者は、車両Cの運転者Dである。図1では、この車両Cの種類として、自動車の例を示している。しかしながら、車両Cの種類は、自動車に限られなくてもよく、トラック、バス、船舶、各種作業車両、新幹線、電車等であってよい。また、状態を推定する対象者は、各種車両の運転者に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、状態を推定する対象者は、工場等の施設において作業を行う作業者、介護施設に入居した要介護者等であってよい。この場合、カメラ21は、所定の場所に存在し得る対象者を撮影するように配置されればよい。
図17は、工場Fの作業者Lの状態を推定するシステムに状態推定装置101を適用した場面を模式的に例示する。状態推定装置101は、状態を推定する対象者が工場Fの作業者Lであること、作業者Lの状態を推定すること、及び自動運転支援装置22に接続されていないことを除き、上記実施形態に係る状態推定装置10と同様に構成される。この場合、カメラ21は、所定の作業場所に存在し得る作業者Lを撮影するように適宜配置される。
状態推定装置101(制御部110)は、上記実施形態と同様に、カメラ21から取得される撮影画像(第1画像)に基づいて作業者Lの顔の挙動に関する第1情報を取得する。また、状態推定装置101は、カメラ21から取得される撮影画像を低解像度化した撮影画像(第2画像)に基づいて作業者Lの身体動作に関する第2情報を取得する。そして、状態推定装置101は、第1情報及び第2情報に基づいて、作業者Lの状態を推定する。このとき、状態推定装置101は、作業者Lの状態として、作業者Lの行う作業に対する集中度、健康状態(例えば作業者の体調又は疲労度)を推定ことができる。また、例えば、介護施設に入居した要介護者に適用した場合には、当該要介護者の異常行動等を推定することができる。
<4.10>
また、上記実施形態では、撮影画像は、複数のフレームで構成され、制御部110は、ステップS12〜S14では、1フレーム単位で顔の挙動を解析し、ステップS16では、2以上のフレームに対して身体動作の解析を行っている。しかしながら、撮影画像及び各解析方法は、このような例に限定されなくてもよい。例えば、制御部110は、ステップS16において、1フレームで構成された撮影画像に対して身体動作の解析を行ってもよい。
本発明の一側面に係る状態推定装置は、多種多様な対象者の状態を従来よりも精度よく推定することができるという効果を奏することから、当該対象者の状態を推定する装置として広く適用可能である。
(付記1)
ハードウェアプロセッサと、
前記ハードウェアプロセッサで実行するプログラムを保持するメモリと、
を備える状態推定装置であって、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
前記撮影画像に基づいて前記対象者の顔の挙動を解析し、前記対象者の顔の挙動に関する第1情報を取得するステップと、
前記撮影画像に基づいて前記対象者の身体動作を解析し、前記対象者の身体動作に関する第2情報を取得するステップと、
前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、
を実行するように構成される、
状態推定装置。
(付記2)
ハードウェアプロセッサにより、所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
ハードウェアプロセッサにより、前記撮影画像に基づいて前記対象者の顔の挙動を解析し、前記対象者の顔の挙動に関する第1情報を取得するステップと、
ハードウェアプロセッサにより、前記撮影画像に基づいて前記対象者の身体動作を解析し、前記対象者の身体動作に関する第2情報を取得するステップと、
ハードウェアプロセッサにより、前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、
を備える、
状態推定方法。
10…状態推定装置、
11…画像取得部、12…第2解析部、
13…解像度変換部、14…第2解析部、
15…特徴ベクトル生成部、16…重み設定部、
17…推定部、
31…顔検出部、32…顔器官検出部、
33…顔器官状態検出部、
331…眼開閉検出部、332…視線検出部、
333…顔向き検出部、
110…制御部、120…記憶部、
130…外部インタフェース、
20…自動運転システム、
21…カメラ、22…自動運転支援装置

Claims (15)

  1. 所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、
    前記撮影画像に基づいて前記対象者の顔の挙動を解析し、前記対象者の顔の挙動に関する第1情報を取得する第1解析部と、
    前記撮影画像に基づいて前記対象者の身体動作を解析し、前記対象者の身体動作に関する第2情報を取得する第2解析部と、
    前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定する推定部と、
    を備える、
    状態推定装置。
  2. 前記第1情報及び前記第2情報はそれぞれ1又は複数の特徴量で表現され、
    前記推定部は、前記各特徴量の値に基づいて、前記対象者の状態を推定する、
    請求項1に記載の状態推定装置。
  3. 前記各特徴量の優先度合いを定める重みを前記各特徴量に設定する重み設定部を更に備え、
    前記推定部は、前記重みが適用された前記各特徴量の値に基づいて、前記対象者の状態を推定する、
    請求項2に記載の状態推定装置。
  4. 前記重み設定部は、前記対象者の状態を過去に推定した結果に基づいて、前記重みの値を決定する、
    請求項3に記載の状態推定装置。
  5. 前記撮影画像の解像度を低下させる解像度変換部を更に備え、
    前記第2解析部は、解像度を低下させた前記撮影画像に対して前記身体動作の解析を行うことで、前記第2情報を取得する、
    請求項1から4のいずれか1項に記載の状態推定装置。
  6. 前記第2解析部は、解像度を低下させた前記撮影画像から抽出されるエッジの位置、エッジの強度、及び局所的な周波数成分の少なくとも1つに関する特徴量を前記第2情報として取得する、
    請求項5に記載の状態推定装置。
  7. 前記撮影画像は、複数のフレームで構成され、
    前記第2解析部は、前記撮影画像に含まれる2以上のフレームに対して前記身体動作の解析を行うことにより、前記第2情報を取得する、
    請求項1から6のいずれか1項に記載の状態推定装置。
  8. 前記第1解析部は、前記撮影画像に対して所定の画像解析を行うことで、前記対象者の顔の検出可否、顔の位置、顔の向き、顔の動き、視線の方向、顔の器官の位置、及び眼の開閉の少なくともいずれか1つに関する情報を前記第1情報として取得する、
    請求項1から7のいずれか1項に記載の状態推定装置。
  9. 前記撮影画像は、複数のフレームで構成され、
    前記第1解析部は、前記撮影画像に対する前記顔の挙動の解析を1フレーム単位で行うことにより、前記第1情報を取得する、
    請求項1から8のいずれか1項に記載の状態推定装置。
  10. 前記対象者は、車両の運転を行う運転者であり、
    前記画像取得部は、前記車両の運転席に着いた前記運転者を撮影するように配置された前記撮影装置から前記撮影画像を取得し、
    前記推定部は、前記第1情報及び前記第2情報に基づいて、前記運転者の状態を推定する、
    請求項1から9のいずれか1項に記載の状態推定装置。
  11. 前記推定部は、前記運転者の状態として、前記運転者の前方注視、眠気、脇見、服の着脱、電話操作、寄り掛かり、同乗者又はペットによる運転妨害、病気の発症、後ろ向き、突っ伏し、飲食、喫煙、めまい、異常行動、カーナビゲーション又はオーディオの操作、眼鏡又はサングラスの着脱、及び写真撮影のうち少なくとも1つを推定する、
    請求項10に記載の状態推定装置。
  12. 前記対象者は、工場の作業者であり、
    前記画像取得部は、所定の作業場所に存在し得る前記作業者を撮影するように配置された前記撮影装置から前記撮影画像を取得し、
    前記推定部は、前記第1情報及び前記第2情報に基づいて、前記作業者の状態を推定する、
    請求項1から9のいずれか1項に記載の状態推定装置。
  13. 前記推定部は、前記作業者の状態として、前記作業者の行う作業に対する集中度、又は前記作業者の健康状態を推定する、
    請求項12に記載の状態推定装置。
  14. コンピュータが、
    所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
    前記撮影画像に基づいて前記対象者の顔の挙動を解析するステップと、
    前記顔の挙動を解析するステップの結果、前記対象者の顔の挙動に関する第1情報を取得するステップと、
    前記撮影画像に基づいて前記対象者の身体動作を解析するステップと、
    前記身体動作を解析するステップの結果、前記対象者の身体動作に関する第2情報を取得するステップと、
    前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、
    を実行する、
    状態推定方法。
  15. コンピュータに、
    所定の場所に存在し得る対象者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
    前記撮影画像に基づいて前記対象者の顔の挙動を解析するステップと、
    前記顔の挙動を解析するステップの結果、前記対象者の顔の挙動に関する第1情報を取得するステップと、
    前記撮影画像に基づいて前記対象者の身体動作を解析するステップと、
    前記身体動作を解析するステップの結果、前記対象者の身体動作に関する第2情報を取得するステップと、
    前記第1情報及び前記第2情報に基づいて、前記対象者の状態を推定するステップと、
    を実行させるための、
    状態推定プログラム。
JP2017108873A 2016-06-02 2017-06-01 状態推定装置、状態推定方法、及び状態推定プログラム Active JP6245398B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016111108 2016-06-02
JP2016111108 2016-06-02

Publications (2)

Publication Number Publication Date
JP6245398B2 JP6245398B2 (ja) 2017-12-13
JP2017217472A true JP2017217472A (ja) 2017-12-14

Family

ID=60478269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108873A Active JP6245398B2 (ja) 2016-06-02 2017-06-01 状態推定装置、状態推定方法、及び状態推定プログラム

Country Status (5)

Country Link
US (1) US20200334477A1 (ja)
JP (1) JP6245398B2 (ja)
CN (1) CN109155106A (ja)
DE (1) DE112017002765T5 (ja)
WO (1) WO2017208529A1 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146123A1 (ja) * 2018-01-29 2019-08-01 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
WO2019187979A1 (ja) * 2018-03-27 2019-10-03 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
JP2019179523A (ja) * 2018-03-30 2019-10-17 ダイキン工業株式会社 心身状態認識システム
JP2019195376A (ja) * 2018-05-07 2019-11-14 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2019212226A (ja) * 2018-06-08 2019-12-12 トヨタ自動車株式会社 ドライバ監視装置
JP2020010865A (ja) * 2018-07-19 2020-01-23 本田技研工業株式会社 運転者状態判定装置および運転者状態判定方法
WO2020116181A1 (ja) * 2018-12-03 2020-06-11 パナソニックIpマネジメント株式会社 集中度計測装置及び集中度計測方法
KR20200095355A (ko) * 2019-01-30 2020-08-10 주식회사 스트라드비젼 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치
JP2020177303A (ja) * 2019-04-15 2020-10-29 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
US10945651B2 (en) 2018-07-05 2021-03-16 Denso Corporation Arousal level determination device
WO2021059745A1 (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JP2021516829A (ja) * 2018-10-19 2021-07-08 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 運転状態分析方法及び装置、運転者監視システム並びに車両
JP2021149440A (ja) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
JP2021157831A (ja) * 2018-03-19 2021-10-07 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP2021530789A (ja) * 2018-09-27 2021-11-11 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法、電子機器及び記憶媒体
JP2022525272A (ja) * 2019-01-25 2022-05-12 グーグル エルエルシー 選択的な動きの描画を伴う画像表示
WO2022219778A1 (ja) * 2021-04-15 2022-10-20 三菱電機株式会社 体格判定装置及び体格判定方法
US11498588B2 (en) 2019-09-25 2022-11-15 Subaru Corporation Vehicle control apparatus
KR20230051910A (ko) * 2021-10-12 2023-04-19 경북대학교 산학협력단 딥러닝 기반 객체 분류를 이용한 운전자 행동 검출 장치
WO2023243066A1 (ja) * 2022-06-17 2023-12-21 三菱電機株式会社 異常姿勢判定装置、異常姿勢判定方法、および、車両制御システム
WO2024069785A1 (ja) * 2022-09-28 2024-04-04 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法、プログラム及び車両制御システム
WO2024075205A1 (ja) * 2022-10-05 2024-04-11 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
WO2024100814A1 (ja) * 2022-11-10 2024-05-16 三菱電機株式会社 異常姿勢検知装置、異常姿勢検知方法、および、車両制御システム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019028798A1 (zh) * 2017-08-10 2019-02-14 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
JP2019111092A (ja) * 2017-12-22 2019-07-11 オムロン株式会社 生体状態推定装置、方法およびプログラム
CN109255780A (zh) * 2018-08-22 2019-01-22 海尔优家智能科技(北京)有限公司 一种自动提供烟灰缸的方法、***及交通运输工具
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
CN113439049B (zh) * 2019-02-18 2024-04-09 三菱电机株式会社 交通工具晕动症推测装置、交通工具晕动症抑制装置以及交通工具晕动症推测方法
JP7240910B2 (ja) * 2019-03-14 2023-03-16 本田技研工業株式会社 乗員観察装置
JP7245683B2 (ja) * 2019-03-15 2023-03-24 株式会社Subaru 乗員保護機能を有する車両
JP7326041B2 (ja) * 2019-06-25 2023-08-15 京セラ株式会社 画像処理装置、撮像装置、移動体、および画像処理方法
CN110598521A (zh) * 2019-07-16 2019-12-20 南京菲艾特智能科技有限公司 一种基于人脸图像智能分析的行为与生理状态识别方法
EP4070733A4 (en) * 2019-12-04 2022-11-30 NEC Corporation ABNORMAL PHYSICAL CONDITION DETERMINATION SYSTEM, ABNORMAL PHYSICAL CONDITION DETERMINATION METHOD AND COMPUTER PROGRAM
US20210253135A1 (en) * 2020-02-18 2021-08-19 Toyota Motor North America, Inc. Determining transport operation level for gesture control
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
JP2022018428A (ja) * 2020-07-15 2022-01-27 株式会社デンソー 露出制御装置、露出制御方法、および露出制御プログラム
JP7444730B2 (ja) * 2020-08-13 2024-03-06 株式会社日立製作所 作業支援装置及び作業支援方法
DE102021202123A1 (de) 2021-03-04 2022-09-08 Volkswagen Aktiengesellschaft Verfahren zur Erkennung eines Müdigkeitszustands eines Fahrers, sowie elektronisches Müdigkeitserkennungssystem und Kraftfahrzeug
JP7460867B2 (ja) 2021-12-24 2024-04-03 パナソニックオートモーティブシステムズ株式会社 推定装置、推定方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113164A (ja) * 1998-09-30 2000-04-21 Honda Motor Co Ltd 差分画像を用いた被写体の検出装置
JP2008176510A (ja) * 2007-01-17 2008-07-31 Denso Corp 運転支援装置
JP2009540459A (ja) * 2006-06-11 2009-11-19 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
JP2012230535A (ja) * 2011-04-26 2012-11-22 Nikon Corp 電子機器および電子機器の制御プログラム
JP2015532743A (ja) * 2012-08-14 2015-11-12 ボルボ ラストバグナー アーベー ドライバの運転状態を判断する方法
JP2016045714A (ja) * 2014-08-22 2016-04-04 株式会社デンソー 車載制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4367624B2 (ja) * 2004-01-20 2009-11-18 オムロン株式会社 運転中における電話使用時の車輌制御装置とその方法
JP4622702B2 (ja) * 2005-05-27 2011-02-02 株式会社日立製作所 映像監視装置
JP6200421B2 (ja) * 2012-07-17 2017-09-20 日産自動車株式会社 運転支援システム及び運転支援方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113164A (ja) * 1998-09-30 2000-04-21 Honda Motor Co Ltd 差分画像を用いた被写体の検出装置
JP2009540459A (ja) * 2006-06-11 2009-11-19 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
JP2008176510A (ja) * 2007-01-17 2008-07-31 Denso Corp 運転支援装置
JP2012230535A (ja) * 2011-04-26 2012-11-22 Nikon Corp 電子機器および電子機器の制御プログラム
JP2015532743A (ja) * 2012-08-14 2015-11-12 ボルボ ラストバグナー アーベー ドライバの運転状態を判断する方法
JP2016045714A (ja) * 2014-08-22 2016-04-04 株式会社デンソー 車載制御装置

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146123A1 (ja) * 2018-01-29 2019-08-01 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体
JPWO2019146123A1 (ja) * 2018-01-29 2021-01-14 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びプログラム
JP2021157831A (ja) * 2018-03-19 2021-10-07 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7124935B2 (ja) 2018-03-19 2022-08-24 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
US11893806B2 (en) 2018-03-27 2024-02-06 Nec Corporation Looking away determination device, looking away determination system, looking away determination method, and storage medium
JP2019174885A (ja) * 2018-03-27 2019-10-10 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
WO2019187979A1 (ja) * 2018-03-27 2019-10-03 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
JP2019179523A (ja) * 2018-03-30 2019-10-17 ダイキン工業株式会社 心身状態認識システム
JP2019195376A (ja) * 2018-05-07 2019-11-14 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7099036B2 (ja) 2018-05-07 2022-07-12 オムロン株式会社 データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2019212226A (ja) * 2018-06-08 2019-12-12 トヨタ自動車株式会社 ドライバ監視装置
US10945651B2 (en) 2018-07-05 2021-03-16 Denso Corporation Arousal level determination device
JP2020010865A (ja) * 2018-07-19 2020-01-23 本田技研工業株式会社 運転者状態判定装置および運転者状態判定方法
JP7046748B2 (ja) 2018-07-19 2022-04-04 本田技研工業株式会社 運転者状態判定装置および運転者状態判定方法
JP7295936B2 (ja) 2018-09-27 2023-06-21 北京市商▲湯▼科技▲開▼▲発▼有限公司 動作認識方法、電子機器及び記憶媒体
JP2021530789A (ja) * 2018-09-27 2021-11-11 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 動作認識方法、電子機器及び記憶媒体
US11386679B2 (en) 2018-10-19 2022-07-12 Shanghai Sensetime Intelligent Technology Co., Ltd. Driving state analysis method and apparatus, driver monitoring system and vehicle
JP2021516829A (ja) * 2018-10-19 2021-07-08 上▲海▼商▲湯▼智能科技有限公司Shanghai Sensetime Intelligent Technology Co., Ltd. 運転状態分析方法及び装置、運転者監視システム並びに車両
WO2020116181A1 (ja) * 2018-12-03 2020-06-11 パナソニックIpマネジメント株式会社 集中度計測装置及び集中度計測方法
JP7514848B2 (ja) 2019-01-25 2024-07-11 グーグル エルエルシー 選択的な動きの描画を伴う画像表示
JP2022525272A (ja) * 2019-01-25 2022-05-12 グーグル エルエルシー 選択的な動きの描画を伴う画像表示
KR20200095355A (ko) * 2019-01-30 2020-08-10 주식회사 스트라드비젼 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치
KR102396267B1 (ko) 2019-01-30 2022-05-11 주식회사 스트라드비젼 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치
JP2020177303A (ja) * 2019-04-15 2020-10-29 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
JP7281733B2 (ja) 2019-04-15 2023-05-26 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
US11498588B2 (en) 2019-09-25 2022-11-15 Subaru Corporation Vehicle control apparatus
WO2021059745A1 (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JP7314084B2 (ja) 2020-03-18 2023-07-25 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
JP2021149440A (ja) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 画像処理装置、コンピュータプログラム、および異常推定システム
JP7499954B2 (ja) 2021-04-15 2024-06-14 三菱電機株式会社 体格判定装置及び体格判定方法
WO2022219778A1 (ja) * 2021-04-15 2022-10-20 三菱電機株式会社 体格判定装置及び体格判定方法
KR20230051910A (ko) * 2021-10-12 2023-04-19 경북대학교 산학협력단 딥러닝 기반 객체 분류를 이용한 운전자 행동 검출 장치
WO2023063649A1 (ko) * 2021-10-12 2023-04-20 경북대학교 산학협력단 딥러닝 기반 객체 분류를 이용한 운전자 행동 검출 장치
KR102634012B1 (ko) * 2021-10-12 2024-02-07 경북대학교 산학협력단 딥러닝 기반 객체 분류를 이용한 운전자 행동 검출 장치
WO2023243066A1 (ja) * 2022-06-17 2023-12-21 三菱電機株式会社 異常姿勢判定装置、異常姿勢判定方法、および、車両制御システム
WO2024069785A1 (ja) * 2022-09-28 2024-04-04 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法、プログラム及び車両制御システム
WO2024075205A1 (ja) * 2022-10-05 2024-04-11 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
WO2024100814A1 (ja) * 2022-11-10 2024-05-16 三菱電機株式会社 異常姿勢検知装置、異常姿勢検知方法、および、車両制御システム

Also Published As

Publication number Publication date
WO2017208529A1 (ja) 2017-12-07
US20200334477A1 (en) 2020-10-22
CN109155106A (zh) 2019-01-04
DE112017002765T5 (de) 2019-02-14
JP6245398B2 (ja) 2017-12-13

Similar Documents

Publication Publication Date Title
JP6245398B2 (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
JP6264492B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
WO2017209225A1 (ja) 状態推定装置、状態推定方法、及び状態推定プログラム
CN111566612A (zh) 基于姿势和视线的视觉数据采集***
US8411171B2 (en) Apparatus and method for generating image including multiple people
CN104573623B (zh) 人脸检测装置、方法
CN106165391B (zh) 增强的图像捕获
JP6668942B2 (ja) 撮影制御装置、プログラム及び方法
CN111507176B (zh) 姿势估计装置、行动估计装置、记录介质、姿势估计方法
US9687189B2 (en) Automatic visual remote assessment of movement symptoms in people with parkinson's disease for MDS-UPDRS finger tapping task
JP5001930B2 (ja) 動作認識装置及び方法
JP2007074033A (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
US11455810B2 (en) Driver attention state estimation
JP6043933B2 (ja) 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
JP2010191793A (ja) 警告表示装置及び警告表示方法
WO2018168038A1 (ja) 運転者の着座判定装置
JP2019185556A (ja) 画像解析装置、方法およびプログラム
JP2009244944A (ja) 画像回復装置および撮影装置
WO2020263277A1 (en) Landmark temporal smoothing
JP2020194227A (ja) 顔遮蔽判定装置、顔遮蔽判定方法、顔遮蔽判定プログラム及び乗員監視システム
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
JP2020149499A (ja) 乗員観察装置
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
WO2022097489A1 (ja) 画像処理装置、画像処理方法
WO2024149603A1 (en) System and method for estimation of eye gaze direction of a user with or without eyeglasses

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6245398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150