JPWO2020161768A1 - 感情推定装置及び感情推定方法 - Google Patents

感情推定装置及び感情推定方法 Download PDF

Info

Publication number
JPWO2020161768A1
JPWO2020161768A1 JP2020570671A JP2020570671A JPWO2020161768A1 JP WO2020161768 A1 JPWO2020161768 A1 JP WO2020161768A1 JP 2020570671 A JP2020570671 A JP 2020570671A JP 2020570671 A JP2020570671 A JP 2020570671A JP WO2020161768 A1 JPWO2020161768 A1 JP WO2020161768A1
Authority
JP
Japan
Prior art keywords
driver
emotion
estimation unit
drivability
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020570671A
Other languages
English (en)
Other versions
JP7233449B2 (ja
Inventor
周作 ▲高▼本
周作 ▲高▼本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020161768A1 publication Critical patent/JPWO2020161768A1/ja
Application granted granted Critical
Publication of JP7233449B2 publication Critical patent/JP7233449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Anesthesiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

顔情報検出部(13)は、車両の運転者の顔の特徴に関する顔情報を検出する。身体情報検出部(14)は、運転者の身体の特徴に関する身体情報を検出する。運転可能度合い推定部(15)は、顔情報と身体情報とに基づいて運転者の運転可能度合いを推定する。表情推定部(16)は、顔情報に基づいて運転者の表情を推定する。感情推定部(17)は、運転者の運転可能度合いと運転者の表情との時間変化に基づいて、快適度合い及び活性度合いで表される運転者の感情を推定する。

Description

この発明は、運転者の感情を推定する感情推定装置及び感情推定方法に関するものである。
従来の感情推定装置は、カメラが撮像した映像等から被験者の生理学データと非生理学データとを検出し、検出した生理学データと非生理学データとに基づいて被験者の覚醒の度合いと快適さの度合いとを推定し、推定した覚醒の度合いと快適さの度合いとに応対する感情を選択する(例えば、特許文献1参照)。
特開2017−144222号公報
従来の感情推定装置が推定した感情は、交通事故の原因となる速度超過及びあおり運転等の運転者の行動を予見し、運転支援装置による加減速の調整及び運転者への警告等に有用である。しかし、感情には持続時間があることから、覚醒の度合いと快適さの度合いとだけでは正しく感情を推定することができないという課題があった。
この発明は、上記のような課題を解決するためになされたもので、時間変化を考慮した感情を推定することを目的とする。
この発明に係る感情推定装置は、車両の運転者の顔に関する顔情報を検出する顔情報検出部と、運転者の身体の特徴に関する身体情報を検出する身体情報検出部と、顔情報と身体情報とに基づいて運転者の運転可能度合いを推定する運転可能度合い推定部と、顔情報に基づいて運転者の表情を推定する表情推定部と、運転者の運転可能度合いと運転者の表情との時間変化に基づいて、快適度合い及び活性度合いで表される運転者の感情を推定する感情推定部とを備えるものである。
この発明によれば、運転者の運転可能度合いと運転者の表情との時間変化に基づいて感情を推定するようにしたので、時間変化を考慮した感情を推定することができる。
実施の形態1に係る感情推定装置の構成例を示すブロック図である。 実施の形態1の感情推定部による感情推定方法を説明する図である。 実施の形態1の感情推定部による感情推定方法を説明するグラフである。 図4A、図4B、及び図4Cは、実施の形態1の感情推定部により推定された感情の時間変化の一例を示すグラフである。 図5A及び図5Bは、実施の形態1の感情推定部により推定された感情の時間変化の別の例を示すグラフである。 実施の形態1に係る感情推定装置の動作例を示すフローチャートである。 実施の形態2に係る感情推定装置の構成例を示すブロック図である。 各実施の形態に係る感情推定装置のハードウェア構成の一例を示す図である。 各実施の形態に係る感情推定装置のハードウェア構成の別の例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る感情推定装置1の構成例を示すブロック図である。実施の形態1に係る感情推定装置1は、車両に搭載されて、又は車両に持ち込まれて、運転者の感情を推定するものである。
この感情推定装置1には、撮像部2が接続される。撮像部2は、例えばハンドル付近に設置され、運転者を撮像するカメラである。この撮像部2は、運転者を撮像した撮像画像を、感情推定装置1へ出力する。
感情推定装置1は、顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、及び感情推定部17を備える。
顔検出部11は、撮像部2から撮像画像を取得する。顔検出部11は、取得した撮像画像から運転者の顔が写った領域を検出する。顔検出部11は、撮像画像のうちの顔領域を顔パーツ検出部12及び身体情報検出部14へ出力する。
顔パーツ検出部12は、顔検出部11が検出した撮像画像のうちの顔領域から、運転者の顔パーツを検出する。顔パーツは、目、鼻、及び口等である。顔パーツ検出部12は、検出した顔パーツを、顔情報検出部13又は身体情報検出部14の少なくとも一方へ出力する。
なお、顔検出部11及び顔パーツ検出部12の機能は、必ずしも感情推定装置1が備える必要はなく、例えば撮像部2等の外部装置が備える構成であってもよい。
顔情報検出部13は、顔パーツ検出部12が検出した顔パーツに基づいて、運転者の顔の特徴に関する顔情報を検出する。顔情報は、運転者の顔向き角度、開眼度合い、瞬き速度、開口度合い、視線角度、又は頭部位置のうちの少なくとも1つを含む。顔情報検出部13は、検出した顔情報を運転可能度合い推定部15及び表情推定部16へ出力する。
身体情報検出部14は、顔検出部11が検出した顔領域、又は顔パーツ検出部12が検出した顔パーツに基づいて、運転者の身体の特徴に関する身体情報を検出する。身体情報は、心拍数、心拍変動、RRI(心拍間隔)、脳波、脈波、脈拍変動、血圧、体温、又は発汗量のうちの少なくとも1つを含む。なお、身体情報検出部14は、撮像部2の撮像画像から検出された顔領域又は顔パーツを用いて身体情報を検出してもよいし、図示しないセンサの検出結果を用いて身体情報を検出してもよい。身体情報検出部14は、検出した身体情報を運転可能度合い推定部15へ出力する。
なお、顔情報は、生体機能に関する情報のうち、顔向き角度、開眼度合い、瞬き速度、開口度合い、視線角度、及び頭部位置等の、生理学で顔の特徴として扱われる項目である。身体情報は、生体機能に関する情報のうち、心拍数、心拍変動、RRI、脳波、脈波、脈拍変動、血圧、体温、及び発汗量等の、生理学で身体の特徴として扱われる項目である。
運転可能度合い推定部15は、顔情報検出部13が検出した顔情報、又は身体情報検出部14が検出した身体情報の少なくとも一方に基づいて、運転者の運転可能度合いを推定する。例えば、運転可能度合い推定部15は、不特定多数の人の平常時及び異常時の顔情報及び身体情報と運転可能度合いとの対応関係を学習したモデルを用いて、顔情報検出部13が検出した顔情報と身体情報検出部14が検出した身体情報とに対応する運転可能度合いを推定する。なお、運転可能度合い推定部15は、自車両の運転者の顔情報及び身体情報を用いて、上記モデルを自車両の運転者用に最適化してもよい。運転可能度合いは、例えば、可能と不可の2段階とする。運転可能である場合、運転者は運転に適したコンディションであり、一方、運転不可である場合、運転者は運転に適していない、又は運転できないコンディションである。運転可能度合い推定部15は、推定した運転可能度合いを感情推定部17へ出力する。
表情推定部16は、顔情報検出部13が検出した顔情報に基づいて、運転者の表情を推定する。例えば、表情推定部16は、予め定められた顔情報と表情との対応関係に基づいて、顔情報検出部13が検出した顔情報に対応する表情を推定する(いわゆるルールベース)。また、表情推定部16は、不特定多数の人の顔情報と表情との対応関係を学習したモデルを用いて、顔情報検出部13が検出した顔情報に対応する表情を推定してもよい(いわゆる機械学習)。さらに、表情推定部16は、ルールベースと機械学習の両方を行って、表情を推定してもよい。表情は、例えば、ポジティブ(笑顔)、ネガティブ(不機嫌又は泣き顔)、及びニュートラル(その他の表情)の3種類とする。表情推定部16は、推定した表情を感情推定部17へ出力する。
感情推定部17は、運転可能度合い推定部15が推定した運転可能度合いの時間変化と、表情推定部16が推定した表情の時間変化とに基づいて、快適度合い及び活性度合いで表される運転者の感情を推定する。なお、活性度合いが高い「活性」状態とは、運転者が起きている、又は覚醒している状態であり、活性度合いが低い「不活性」状態とは、運転者が眠っている、又は酔っている状態である。
図2は、実施の形態1の感情推定部17による感情推定方法を説明する図である。
運転不可の場合、感情が表情に出にくく、表情から感情を推定することが困難である。そのため、感情推定部17は、運転可能度合い推定部15により運転者が運転不可であると推定された場合、活性度合いを不活性と判定する。
一方、感情推定部17は、運転可能度合い推定部15により運転者が運転可能であると推定された場合、活性度合いを活性と判定する。また、感情推定部17は、運転可能度合い推定部15により運転者が運転可能であると推定された場合、表情推定部16により推定された表情がポジティブの場合に快適度合いを快適と判定し、ニュートラルの場合に無表情と判定し、ネガティブの場合に不快と判定する。
以下では、ラッセル感情円環モデルを利用して感情を推定する例を説明する。
図3は、実施の形態1の感情推定部17による感情推定方法を説明するグラフである。図3に示されるグラフは、縦軸が活性度合い、横軸が快適度合いである。感情推定部17は、運転可能度合いと表情とに基づいて判定した活性度合いと快適度合いとに応じて、感情を表す点を図3のグラフ上にプロットする。例えば、感情推定部17は、運転可能度合いが「可能」である場合、「可能」の継続時間に応じた分だけ感情を表す点を現在の位置から活性側に移動させる。反対に運転可能度合いが「不可」である場合、感情推定部17は、感情を表す点を縦軸と横軸との交点である原点にプロットした後、「不可」の継続時間に応じた分だけ感情を表す点を原点から不活性側に移動させる。また、感情推定部17は、表情が「ポジティブ」である場合、「ポジティブ」の継続時間に応じた分だけ感情を表す点を現在の位置から快適側に移動させる。反対に表情が「ネガティブ」である場合、感情推定部17は、「ネガティブ」の継続時間に応じた分だけ感情を表す点を現在の位置から不快側に移動させる。また、感情推定部17は、表情が「ニュートラル」である場合、「ニュートラル」の継続時間に応じた分だけ感情を表す点を、原点の方向に移動させる。なお、感情を表す点の、単位時間あたりの移動量は、予め与えられた値であってもよいし、運転者ごとに異なる値であってもよい。
また、感情推定部17は、図3のグラフにおいて、活性かつ快適な領域31に感情を表す点をプロットした場合、運転者の感情を「興奮」と推定する。感情推定部17は、感情を表す点が領域31に向かって移動していく場合、運転者が徐々に興奮していると推定する。運転者が興奮状態にある場合、速度超過等が予見される。また、感情推定部17は、活性かつ不快な領域32に感情を表す点をプロットした場合、運転者の感情を「不満」と推定する。感情推定部17は、感情を表す点が領域32に向かって移動していく場合、運転者が徐々に不満を感じていると推定する。運転者が不満状態にある場合、あおり運転等が予見される。また、感情推定部17は、不活性な領域33に感情を表す点をプロットした場合、運転者の感情を「眠気」と推定する。感情推定部17は、感情を表す点が領域33に向かって移動していく場合、運転者が徐々に眠くなっていると推定する。運転者が眠気状態にある場合、居眠り運転等が予見される。なお、図3のグラフにおける感情の種類、及び領域と感情との対応関係は、上記例に限定されるものではない。また、感情に対応する領域の位置及び大きさは、運転者ごとに異なってもよい。
次に、感情推定の具体例を説明する。
図4A、図4B、及び図4Cは、実施の形態1の感情推定部17により推定された感情の時間変化の一例を示すグラフである。運転者の運転可能度合いが「可能」であり、表情が「ポジティブ」である場合、感情推定部17は、図4Aのようにグラフ上に感情を表す点41をプロットする。運転可能度合い「可能」及び表情「ポジティブ」が継続した場合、継続時間に応じた分だけ感情を表す点41が活性側及び快適側に移動していく。図4Bのように感情を表す点41が感情を表す点42へ移動していき領域31へ近づいていく場合、感情推定部17は、運転者が徐々に興奮しているというように、感情の時間変化を推定することができる。
図4Cでは、興奮の領域31に感情を表す点43がプロットされている。ここで、運転可能度合い「可能」及び表情「ニュートラル」が継続した場合、継続時間に応じた分だけ感情を表す点43が原点方向に移動していく。なお、実施の形態1では、感情推定部17は、運転可能度合い「可能」よりも表情「ニュートラル」を優先して、感情を表す点43を移動させている。図4Cのように感情を表す点43が感情を表す点44へ移動していき領域31から離れていく場合、感情推定部17は、運転者が徐々に冷静になっているというように、感情の時間変化を推定することができる。
図5A及び図5Bは、実施の形態1の感情推定部17により推定された感情の時間変化の別の例を示すグラフである。運転者の運転可能度合いが「不可」である場合、感情推定部17は、表情に関係なく、原点に感情を表す点51をプロットする。そして、感情推定部17は、運転可能度合い「不可」の継続時間に応じた分だけ感情を表す点51を不活性側へ移動させる。図5Aのように感情を表す点51が感情を表す点52へ移動していき領域33に近づいていく場合、感情推定部17は、運転者が徐々に眠くなっているというように、感情の時間変化を推定することができる。
運転者の運転可能度合いが「可能」になった場合、感情推定部17は、運転可能度合い「可能」の継続時間に応じた分だけ感情を表す点52を活性側へ移動させる。図5Bのように感情を表す点52が感情を表す点53へ移動していき領域33から離れていく場合、感情推定部17は、運転者が徐々に覚醒しているというように、感情の時間変化を推定することができる。なお、図5Bでは、運転可能度合いが「可能」、かつ表情が「ニュートラル」である場合の例が示されているため、感情を表す点52が原点方向に移動している。表情が「ポジティブ」(又は「ネガティブ」)である場合には、感情を表す点52が活性側かつ快適側(又は不快側)に移動していく。
次に、感情推定装置1の動作を説明する。
図6は、実施の形態1に係る感情推定装置1の動作例を示すフローチャートである。感情推定装置1は、例えば車両のイグニッションスイッチがオンになると図6のフローチャートに示される動作を開始し、イグニッションスイッチがオフになるまでこの動作を繰り返す。
ステップST1において、顔検出部11は、撮像部2の撮像画像から運転者の顔領域を検出する。ステップST2において、顔パーツ検出部12は、撮像画像のうちの顔領域から顔パーツを検出する。なお、上述したように、顔検出部11及び顔パーツ検出部12の機能は、外部装置が備える構成であってもよい。その構成の場合、感情推定装置1は、ステップST1及びステップST2における動作を行わない。
ステップST3において、顔情報検出部13は、顔パーツに基づいて運転者の顔の特徴に関する顔情報を検出する。ステップST4において、身体情報検出部14は、撮像画像のうちの顔領域又は顔パーツに基づいて、運転者の身体の特徴に関する身体情報を検出する。ステップST5において、運転可能度合い推定部15は、顔情報と身体情報とに基づいて、運転者の運転可能度合いを推定する。ステップST6において、表情推定部16は、顔情報に基づいて、運転者の表情を推定する。ステップST7において、感情推定部17は、運転者の運転可能度合いと表情との時間変化に基づいて、快適度合い及び活性度合いで表される感情を推定する。
なお、図6のフローチャートに示される感情推定装置1の動作は一例であり、この動作に限定されるものではない。例えば、身体情報検出部14が顔パーツを用いず顔領域のみを用いて身体情報を検出する場合、顔パーツ検出部12はステップST2の顔パーツ検出に関する動作を行わない。また、例えば、運転可能度合い推定部15及び表情推定部16が顔情報検出部13により検出された顔情報のみを用いて運転可能度合いを推定する場合、身体情報検出部14はステップST4の身体情報検出に関する動作を行わない。
以上のように、実施の形態1に係る感情推定装置1は、顔情報検出部13と、身体情報検出部14と、運転可能度合い推定部15と、表情推定部16と、感情推定部17とを備える。顔情報検出部13は、車両の運転者の顔の特徴に関する顔情報を検出する。身体情報検出部14は、運転者の身体の特徴に関する身体情報を検出する。運転可能度合い推定部15は、顔情報と身体情報とに基づいて運転者の運転可能度合いを推定する。表情推定部16は、顔情報に基づいて運転者の表情を推定する。感情推定部17は、運転者の運転可能度合いと運転者の表情との時間変化に基づいて、快適度合い及び活性度合いで表される運転者の感情を推定する。この構成により、感情推定装置1は、ある時点における運転者の感情を推定するだけでなく、運転者が徐々に興奮している、及び徐々に冷静になっているといった、時間変化を考慮した感情を推定することができる。
また、実施の形態1の感情推定部17は、運転可能度合い推定部15により運転可能と推定された場合、運転者の表情の継続時間に基づいて運転者の感情を推定する。これにより、感情推定部17は、運転者の状態が、感情が表情に表れにくい状態である場合であっても、精度よく感情を推定することができる。
また、実施の形態1の感情推定部17は、運転者の運転可能度合いの継続時間及び運転者の表情の継続時間に応じて快適度合い及び活性度合いを判定し、予め定められた快適度合いと活性度合いと感情との対応関係を参照し、判定した快適度合い及び活性度合いに対応する運転者の感情を推定する。これにより、感情推定部17は、図3〜図5に示されるように簡単に、時間変化を考慮した感情を推定することができる。
実施の形態2.
図7は、実施の形態2に係る感情推定装置1の構成例を示すブロック図である。実施の形態2に係る感情推定装置1は、図1に示された実施の形態1の感情推定装置1に対して警告部18及び運転切り替え部19が追加された構成である。図7において図1と同一又は相当する部分は、同一の符号を付し説明を省略する。
警告部18は、ディスプレイ又はスピーカの少なくとも一方を備える。警告部18は、感情推定部17が推定した感情に応じて、運転者に対して警告する、又は手動運転から自動運転への切り替えを促す。例えば、運転者が徐々に興奮していき、感情を表す点が図3の領域31内に入った場合、速度超過等が予見される。そのため、警告部18は、ディスプレイに警告画面を表示する、又はスピーカから警告音を出力することにより、運転者に対して警告する。また、運転者が徐々に不満を感じていき、感情を表す点が図3の領域32内に入った場合、あおり運転等が予見される。そのため、警告部18は、ディスプレイに警告画面を表示する、又はスピーカから警告音を出力することにより、運転者に対して警告する。また、運転者が徐々に眠気を感じていき、感情を表す点が図3の領域33内に入った場合、居眠り運転等が予見される。そのため、警告部18は、ディスプレイに警告画面を表示する、又はスピーカから警告音を出力することにより、運転者に対して警告する。
なお、警告部18は、警告画面表示後一定時間が経過した場合に警告画面の表示を終了してもよいし、興奮若しくは不満の状態から冷静になった場合又は眠気の状態から覚醒した場合に警告画面の表示を終了してもよい。同様に、警告部18は、警告音出力後一定時間が経過した場合に警告音の出力を終了してもよいし、興奮若しくは不満の状態から冷静になった場合又は眠気の状態から覚醒した場合に警告音の出力を終了してもよい。
また、警告部18は、運転者が徐々に眠気を感じていき、感情を表す点が図3の領域33内に入った場合、ディスプレイに自動運転への切り替えを促す画面を表示する、又はスピーカから自動運転への切り替えを促す音声を出力するようにしてもよい。
さらに、感情推定装置1は、運転者が眠気を感じている場合、手動運転から自動運転への切り替えを自動的に行う構成であってもよい。具体的には、運転切り替え部19は、運転者が徐々に眠気を感じていき、感情を表す点が図3の領域33内に入った場合、手動運転から自動運転への切り替えを図示しない車両制御装置に対して指示する。
以上のように、実施の形態2に係る感情推定装置1は、警告部18を備える。警告部18は、感情推定部17により推定された運転者の感情に応じて、運転者に対して警告する、又は自動運転への切り替えを促す。これにより、感情推定装置1は、運転者の感情に応じた適切なタイミングで警告することができる。
最後に、各実施の形態に係る感情推定装置1のハードウェア構成を説明する。
図8及び図9は、各実施の形態に係る感情推定装置1のハードウェア構成例を示す図である。感情推定装置1における顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、感情推定部17、警告部18、及び運転切り替え部19の機能は、処理回路により実現される。即ち、感情推定装置1は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路100であってもよいし、メモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。
図8に示されるように、処理回路が専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、感情推定部17、警告部18、及び運転切り替え部19の機能を複数の処理回路100で実現してもよいし、各部の機能をまとめて1つの処理回路100で実現してもよい。
図9に示されるように、処理回路がプロセッサ101である場合、顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、感情推定部17、警告部18、及び運転切り替え部19の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、感情推定装置1は、プロセッサ101により実行されるときに、図6のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ102を備える。また、このプログラムは、顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、感情推定部17、警告部18、及び運転切り替え部19の手順又は方法をコンピュータに実行させるものであるとも言える。
ここで、プロセッサ101とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。
メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、顔検出部11、顔パーツ検出部12、顔情報検出部13、身体情報検出部14、運転可能度合い推定部15、表情推定部16、感情推定部17、警告部18、及び運転切り替え部19の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、感情推定装置1における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
この発明に係る感情推定装置は、車両、鉄道、船舶又は航空機を含む移動体に搭乗した運転者及び搭乗者等の感情を推定する感情推定装置に適している。
1 感情推定装置、2 撮像部、11 顔検出部、12 顔パーツ検出部、13 顔情報検出部、14 身体情報検出部、15 運転可能度合い推定部、16 表情推定部、17 感情推定部、18 警告部、19 運転切り替え部、31〜33 領域、41〜44,51〜53 感情を表す点、100 処理回路、101 プロセッサ、102 メモリ。

Claims (5)

  1. 車両の運転者の顔の特徴に関する顔情報を検出する顔情報検出部と、
    前記運転者の身体の特徴に関する身体情報を検出する身体情報検出部と、
    前記顔情報と前記身体情報とに基づいて前記運転者の運転可能度合いを推定する運転可能度合い推定部と、
    前記顔情報に基づいて前記運転者の表情を推定する表情推定部と、
    前記運転者の運転可能度合いと前記運転者の表情との時間変化に基づいて、快適度合い及び活性度合いで表される前記運転者の感情を推定する感情推定部とを備える感情推定装置。
  2. 前記感情推定部は、前記運転可能度合い推定部により運転可能と推定された場合、前記運転者の表情の継続時間に基づいて前記運転者の感情を推定することを特徴とする請求項1記載の感情推定装置。
  3. 前記感情推定部は、前記運転者の運転可能度合いの継続時間及び前記運転者の表情の継続時間に応じて前記快適度合い及び前記活性度合いを判定し、予め定められた快適度合いと活性度合いと感情との対応関係を参照し、判定した前記快適度合い及び前記活性度合いに対応する前記運転者の感情を推定することを特徴とする請求項1記載の感情推定装置。
  4. 前記感情推定部により推定された前記運転者の感情に応じて、前記運転者に対して警告する、又は自動運転への切り替えを促す警告部を備えることを特徴とする請求項1記載の感情推定装置。
  5. 顔情報検出部が、車両の運転者の顔の特徴に関する顔情報を検出し、
    身体情報検出部が、前記運転者の身体の特徴に関する身体情報を検出し、
    運転可能度合い推定部が、前記顔情報と前記身体情報とに基づいて前記運転者の運転可能度合いを推定し、
    表情推定部が、前記顔情報に基づいて前記運転者の表情を推定し、
    感情推定部が、前記運転可能度合い推定部により運転可能と推定された場合、前記運転者の表情の時間変化に基づいて、快適度合い及び活性度合いで表される前記運転者の感情を推定する感情推定方法。
JP2020570671A 2019-02-04 2019-02-04 感情推定装置及び感情推定方法 Active JP7233449B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003854 WO2020161768A1 (ja) 2019-02-04 2019-02-04 感情推定装置及び感情推定方法

Publications (2)

Publication Number Publication Date
JPWO2020161768A1 true JPWO2020161768A1 (ja) 2021-09-09
JP7233449B2 JP7233449B2 (ja) 2023-03-06

Family

ID=71948104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570671A Active JP7233449B2 (ja) 2019-02-04 2019-02-04 感情推定装置及び感情推定方法

Country Status (5)

Country Link
US (1) US11430231B2 (ja)
JP (1) JP7233449B2 (ja)
CN (1) CN113365556A (ja)
DE (1) DE112019006823T5 (ja)
WO (1) WO2020161768A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014738A1 (ja) * 2019-07-19 2021-01-28 日本電気株式会社 快適性運転データ収集システム、運転制御装置、方法、および、プログラム
JP7328828B2 (ja) * 2019-08-27 2023-08-17 フォルシアクラリオン・エレクトロニクス株式会社 状態推定装置、状態推定プログラムおよび状態推定方法
US12017679B2 (en) * 2021-10-25 2024-06-25 Honda Motor Co., Ltd. Adaptive trust calibration

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013008301A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 車両の緊急退避装置
US20140171752A1 (en) * 2012-12-14 2014-06-19 Electronics And Telecommunications Research Institute Apparatus and method for controlling emotion of driver
JP2016071577A (ja) * 2014-09-30 2016-05-09 マツダ株式会社 運転者状態検出方法および検出装置
JP2017100039A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、体調推定システム及びプロセッサ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
US20110043635A1 (en) * 2008-02-28 2011-02-24 Ryujiro Fujita Vehicle driving evaluation apparatus and method, and computer program
CN103714660B (zh) * 2013-12-26 2017-02-08 苏州清研微视电子科技有限公司 基于图像处理融合心率特征与表情特征实现疲劳驾驶判别的***
CN106562793B (zh) * 2015-10-08 2021-12-21 松下电器(美国)知识产权公司 信息提示装置的控制方法、以及信息提示装置
JP6985005B2 (ja) 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
DE102015220237A1 (de) * 2015-10-16 2017-04-20 Zf Friedrichshafen Ag Fahrzeugsystem und Verfahren zur Aktivierung einer Selbstfahreinheit zum autonomen Fahren
CN105383497B (zh) * 2015-10-30 2020-10-27 北京九五智驾信息技术股份有限公司 车载***
EP3175786A1 (en) 2015-12-01 2017-06-07 Panasonic Intellectual Property Corporation of America Estimation of physical conditions
FR3057517B1 (fr) * 2016-10-14 2020-03-13 Valeo Comfort And Driving Assistance Dispositif de prevention des situations dangereuses pour un conducteur d'un vehicule de transport et procede associe
US10467488B2 (en) * 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013008301A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 車両の緊急退避装置
US20140171752A1 (en) * 2012-12-14 2014-06-19 Electronics And Telecommunications Research Institute Apparatus and method for controlling emotion of driver
JP2016071577A (ja) * 2014-09-30 2016-05-09 マツダ株式会社 運転者状態検出方法および検出装置
JP2017100039A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、体調推定システム及びプロセッサ

Also Published As

Publication number Publication date
WO2020161768A1 (ja) 2020-08-13
CN113365556A (zh) 2021-09-07
JP7233449B2 (ja) 2023-03-06
DE112019006823T5 (de) 2021-10-21
US11430231B2 (en) 2022-08-30
US20220067412A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
US11027608B2 (en) Driving assistance apparatus and driving assistance method
JP5177011B2 (ja) 開眼度特定装置
JP7233449B2 (ja) 感情推定装置及び感情推定方法
EP2314207A1 (en) Method for monitoring and managing driver attention loads
JP5177102B2 (ja) 運転支援装置
US10899356B2 (en) Drowsiness prevention device, drowsiness prevention method, and recording medium
WO2019208450A1 (ja) 運転支援装置、運転支援方法及びプログラム
JP7118136B2 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
JP6969493B2 (ja) 映像出力装置、映像出力方法、及びコンピュータプログラム
JP2002183900A (ja) 居眠り運転警報装置
US20220036101A1 (en) Methods, systems and computer program products for driver monitoring
JP6776681B2 (ja) ドライバ状態判定装置、及びドライバ状態判定プログラム
JP6701951B2 (ja) 運転支援装置
JP2005253590A (ja) 運転支援装置
CN113168758B (zh) 确定车辆驾驶者的困倦水平的方法
US10945651B2 (en) Arousal level determination device
JP7046748B2 (ja) 運転者状態判定装置および運転者状態判定方法
JP2011128823A (ja) 安全運転サポート装置
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
JP2018013812A (ja) ドライバ状態誘導装置、及びドライバ状態誘導プログラム
JP2019179370A (ja) 車速制御装置
JP2020013554A (ja) 覚醒度判定装置
JP2019079285A (ja) 安全運転促進装置及び安全運転促進方法
US20230373518A1 (en) Method for prompting driver, and vehicle control device
JP7515771B2 (ja) 覚醒度低下推定装置、学習装置、および、覚醒度低下推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230221

R150 Certificate of patent or registration of utility model

Ref document number: 7233449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150