JP7076357B2 - 感情推定装置 - Google Patents

感情推定装置 Download PDF

Info

Publication number
JP7076357B2
JP7076357B2 JP2018203563A JP2018203563A JP7076357B2 JP 7076357 B2 JP7076357 B2 JP 7076357B2 JP 2018203563 A JP2018203563 A JP 2018203563A JP 2018203563 A JP2018203563 A JP 2018203563A JP 7076357 B2 JP7076357 B2 JP 7076357B2
Authority
JP
Japan
Prior art keywords
person
unit
frequency
event
emotion estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203563A
Other languages
English (en)
Other versions
JP2020071561A (ja
Inventor
顕至 大熊
隆 岡田
航太 齊藤
勝鎬 崔
祥和 松尾
直規 菊地
克也 池信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018203563A priority Critical patent/JP7076357B2/ja
Priority to US16/665,491 priority patent/US11062159B2/en
Priority to CN201911042032.7A priority patent/CN111128239B/zh
Publication of JP2020071561A publication Critical patent/JP2020071561A/ja
Priority to US17/343,043 priority patent/US11657626B2/en
Application granted granted Critical
Publication of JP7076357B2 publication Critical patent/JP7076357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Navigation (AREA)

Description

本発明は、人の感情推定を行う感情推定装置に関する。
人の感情を推定する感情推定装置が様々な分野で開発されている。例えば、特許文献1には、運転者の顔面をカメラで撮像し、所定周期内(例えば3分以内)の表情の変化(顔面の特定部位の変化)の回数に基づいて、運転者が漫然状態か否かを判定する装置が開示されている。
特開2016-71577号公報
感情推定の頻度を高くすれば、人の感情把握の精度を高くすることができるが、その反面、演算負荷が大きくなる。
本発明はこのような課題を考慮してなされたものであり、人の感情を適切に把握できるようにすると共に演算負荷が大きくなることを抑制することができる感情推定装置を提供することを目的とする。
本発明の態様は、
人の感情に変化を起こすイベントごとに当該イベントの発生を予測するための予測情報を記録する記録部と、
前記予測情報を検出することに基づいて、前記イベントの発生を予測するイベント予測部と、
前記感情推定を行う頻度を設定する頻度設定部と、
を備え、
前記頻度設定部は、前記イベント予測部により前記イベントの発生が予測される場合に、前記イベントの発生が予測されない場合よりも高い頻度を設定すると共に、前記イベントの内容に基づいて当該頻度を設定する。
本発明によれば、人の感情を適切に把握できるようにすると共に演算負荷が大きくなることを抑制することができる。
図1は第1実施形態に係る感情推定装置のブロック図である。 図2は第1、第2実施形態で実行される処理フローである。 図3は第2実施形態に係る感情推定装置のブロック図である。 図4は第3実施形態に係る感情推定装置のブロック図である。 図5は第3実施形態で実行される処理フローである。 図6は第4実施形態に係る感情推定装置のブロック図である。 図7は第4、第5実施形態で実行される処理フローである。 図8は第5実施形態に係る感情推定装置のブロック図である。
以下、本発明に係る感情推定装置について、好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。
以下で説明する各実施形態においては、車両に設けられる感情推定装置を想定する。各実施形態においては、感情推定の対象者を、車内の所定位置に座る人に特定してもよいし、全ての人にしてもよい。なお、以下の説明では、運転席に座る人(運転者)の感情推定を行うことを想定する。
感情推定装置は、設定される頻度で人の感情推定を行う。人の感情は、イベントが発生した後に変化する。そこで、感情推定装置は、イベントが発生するよりも前に発生する可能性が高い他のイベント(以下、事前イベントという。)の有無を検出することにより、イベントの発生の有無を予測し、イベントの発生が予測される場合に、イベントの発生が予測されない場合よりも高い頻度を設定する。
[1.第1実施形態]
第1実施形態に係る感情推定装置10を説明する。第1実施形態では、人の感情に変化を起こすイベントとして、車両内で人と他者とが会話すること(人と他者との会話)を想定する。
[1.1.構成]
図1を用いて第1実施形態に係る感情推定装置10の構成を説明する。感情推定装置10は、車内カメラ12と、演算部14と、記録部16と、を有する。
車内カメラ12は、各座席を撮像できる位置、例えば車内のダッシュボードや天井に設けられてもよいし、座席毎に設けられてもよい。車内カメラ12は、車室(乗員)を撮像して画像情報を取得し、画像情報を演算部14に出力する。
演算部14は、CPU等のプロセッサを備える。演算部14は、記録部16に記憶されるプログラムを実行することにより各種機能を実現する。第1実施形態において、演算部14は、認識部20、イベント予測部22、識別部24、頻度設定部26、感情推定部28として機能する。認識部20は、車内カメラ12により取得される画像情報に基づいて車内の状況(乗員の位置、乗員の顔等)を認識する。イベント予測部22は、予測情報32を検出することに基づいてイベントの発生を予測する。識別部24は、人および人と同行する他者を識別する。頻度設定部26は、感情推定を行う頻度を設定する。感情推定部28は、車内カメラ12により取得される画像情報に基づいて人の感情推定を行う。例えば微表情を判定して感情推定を行う。この際、感情推定部28は、感情推定を頻度設定部26で設定される頻度で行う。
記録部16は、ROM、RAM等の記憶装置を備える。記録部16は、演算部14が実行するプログラム、各種数値、感情推定の頻度(所定頻度、第1頻度、第2頻度)を記録する他に、イベント情報30と予測情報32とを対応付けて記録し、また、人データベース34(以下、人DB34ともいう。)を記録する。イベント情報30は、イベントを規定する情報である。また、予測情報32は、イベント情報30で示されるイベントの発生を予測するための情報、すなわち事前イベントを規定する情報である。第1実施形態において、イベント情報30は、人と他者との会話というイベントを規定する情報であり、予測情報32は、人の顔または視線が他者の方向に向くという事前イベントを規定する情報である。人DB34は、人情報36と、他者情報38と、同行履歴情報40と、を含む。人情報36は、感情推定の対象者となる人の生体情報、例えば、顔画像データや指紋データ等を含む。他者情報38は、人情報36に紐付けられる情報であって、人情報36で記録される人と関係がある他者の生体情報、例えば、顔画像データや指紋データ等を含む。同行履歴情報40は、人と他者とが行動を共にした日付を時系列で示すデータである。
[1.2.動作]
図2を用いて第1実施形態に係る感情推定装置10の動作を説明する。図2に示される一連の処理は定期的に行われる。
ステップS1において、イベント予測部22は、予測情報32で規定される事前イベントの検出状況を監視し、イベントが発生するか否かを予測する。この処理において、車内カメラ12は、車内を撮像した画像情報を演算部14に出力する。認識部20は、画像情報を用いた画像認識処理により車内の人の位置および他者の位置を認識すると共に、画像情報を用いた顔検出技術または視線検出技術により人の顔の向きまたは視線の向きを認識する。イベント予測部22は、認識部20の認識結果に基づいて、人に対する他者の方向、および、人の顔または視線の向きを特定する。イベント予測部22は、事前イベント(人の顔または視線が他者の方向に向く)が検出される場合に、イベント(人と他者との会話)が発生すると予測する(ステップS1:YES)。この場合に処理はステップS3に移行する。一方、イベント予測部22は、事前イベントが検出されない場合に、イベントが発生しないと予測する(ステップS1:NO)。この場合に処理はステップS2に移行する。
ステップS1からステップS2に移行すると、頻度設定部26は、感情推定の頻度として所定頻度を設定する。このとき、演算部14は、図示しない感情推定装置に対して所定頻度で感情推定を行うように動作指示を出力する。ステップS2の後、一連の処理は一旦終了する。
ステップS1からステップS3に移行すると、頻度設定部26は、識別部24による識別結果に基づいて、人と他者との関係を判定する。識別部24は、認識部20により認識された人の顔の画像データを、人DB34の人情報36の顔画像データと照合することにより人を識別する。また、識別部24は、認識部20により認識された他者の顔の画像データを、識別した人の人情報36に紐付けられている他者情報38の顔画像データと照合することにより他者を識別する。更に、頻度設定部26は、識別部24の識別結果に基づいて人情報36および他者情報38に紐付けられている同行履歴情報40を特定し、人と他者との関係を判定する。例えば、頻度設定部26は、同行履歴情報40に基づいて同行回数を演算する。そして、頻度設定部26は、同行回数>回数閾値である場合に、両者は親しい間柄であると判定する。また、頻度設定部26は、同行回数≦回数閾値である場合に、両者は親しい間柄でないと判定する。なお、頻度設定部26は、識別部24が他者を識別できない場合も、両者は親しい間柄でないと判定する。他に、所定期間内の同行回数で両者の関係を判定してもよい。ステップS3の後、処理はステップS4に移行する。
ステップS4において、頻度設定部26は、他者が人にとって気を遣う人物であるか否かを判定する。頻度設定部26は、両者が親しい間柄でない場合に、他者が人にとって気を遣う人物であると判定する(ステップS4:YES)。この場合に処理はステップS5に移行する。一方、頻度設定部26は、両者が親しい間柄である場合に、他者が人にとって気を遣う人物でないと判定する(ステップS4:NO)。この場合に処理はステップS6に移行する。
ステップS4からステップS5に移行すると、頻度設定部26は、感情推定の頻度として所定頻度よりも高頻度である第1頻度を設定する。このとき、演算部14は、図示しない感情推定装置に対して第1頻度で感情推定を行うように動作指示を出力する。ステップS5の後、一連の処理は一旦終了する。
ステップS4からステップS6に移行すると、頻度設定部26は、感情推定の頻度として所定頻度よりも高頻度であり、かつ、第1頻度よりも低頻度である第2頻度を設定する。このとき、演算部14は、図示しない感情推定装置に対して第2頻度で感情推定を行うように動作指示を出力する。ステップS6の後、一連の処理は一旦終了する。
ステップS4、ステップS5、ステップS6のように、頻度設定部26は、人と他者との会話というイベントについての「イベントの内容」(親しい間柄の人物間の会話か)に基づいて頻度を設定する。
なお、演算部14は、人情報36および他者情報38に紐付けられている同行履歴情報40を更新する。この際、演算部14は、同行履歴情報40として、人と他者を識別した時点のシステム日付を新たに登録する。但し、同行履歴情報40に既にシステム日付と同日の情報が記録されている場合、演算部14は、同行履歴情報40を更新しない。
[1.3.第1実施形態の変形例]
上記説明では車両に設けられる感情推定装置10を想定した。これに代わり、車両以外の移動体に第1実施形態に係る感情推定装置10を設けてもよい。また、移動体以外の装置、例えばパーソナルコンピュータ(モバイルPC、タブレットPCを含む)やスマートフォンに第1実施形態に係る感情推定装置10を設けてもよい。
[2.第2実施形態]
第2実施形態に係る感情推定装置10を説明する。第2実施形態では、人の感情に変化を起こすイベントとして、人と他者が車両に搭乗すること(人と他者の車両への搭乗)を想定する。
[2.1.構成]
図3を用いて第2実施形態に係る感情推定装置10の構成を説明する。なお、第2実施形態においては、第1実施形態と同一の構成に同一の符号を付し、その説明を省略する。感情推定装置10は、車内カメラ12と、接触センサ42と、指紋センサ44と、演算部14と、記録部16と、を有する。
接触センサ42と指紋センサ44は、各ドアハンドルに設けられる。接触センサ42は、ドアハンドルに対する接触を検知し、検知情報を演算部14に出力する。指紋センサ44は、ドアハンドルに触れた人または他者の指紋を検出し、指紋情報を演算部14に出力する。
第2実施形態において、演算部14は、認識部20、イベント予測部22、識別部24、頻度設定部26として機能する。
第2実施形態において、記録部16は、イベント情報30と予測情報32とを対応付けて記録し、また、人DB34を記録する。第2実施形態において、イベント情報30は、人と他者の車両への搭乗というイベントを規定する情報であり、予測情報32は、人と他者がドアハンドルに接触するという事前イベントを規定する情報である。
[2.2.動作]
第1実施形態と同様に、図2を用いて第2実施形態に係る感情推定装置10の動作を説明する。図2に示される一連の処理は定期的に行われる。以下では、第1実施形態と異なる処理が行われるステップ(ステップS1、ステップS3)を中心に第2実施形態で行われる処理を説明する。
ステップS1において、イベント予測部22は、予測情報32で規定される事前イベントの検出状況を監視し、イベントが発生するか否かを予測する。この処理において、イベント予測部22は、運転席のドアに設けられる接触センサ42と、他座席、例えば助手席のドアに設けられる接触センサ42の検出結果に基づいて、ドアハンドルに対する接触状態を特定する。イベント予測部22は、事前イベント(人と他者がドアハンドルに接触する)が検出される場合に、イベント(人と他者の車両への搭乗)が発生すると予測する(ステップS1:YES)。この場合に処理はステップS3に移行する。一方、イベント予測部22は、事前イベントが検出されない場合に、イベントが発生しないと予測する(ステップS1:NO)。この場合に処理はステップS2に移行する。
ステップS1からステップS3に移行すると、頻度設定部26は、識別部24による識別結果に基づいて、人と他者との関係を判定する。識別部24は、運転席のドアに設けられる指紋センサ44により検出された指紋データを、人DB34の人情報36の指紋データと照合することにより人を識別する。また、識別部24は、助手席のドアに設けられる指紋センサ44により検出された指紋データを、識別した人の人情報36に紐付けられている他者情報38の指紋データと照合することにより他者を識別する。更に、頻度設定部26は、識別部24の識別結果に基づいて人情報36および他者情報38に紐付けられている同行履歴情報40を特定し、人と他者との関係を判定する。人と他者との関係の判定方法は、第1実施形態と同じようにすることができる。
第1実施形態と同様に、頻度設定部26は、人が車両に搭乗するというイベントについての「イベントの内容」(親しい間柄の人物との乗車か)に基づいて頻度を設定する。
[2.3.第2実施形態の変形例]
第2実施形態を、第1実施形態と組み合わせてもよい。
[3.第3実施形態]
第3実施形態に係る感情推定装置10を説明する。第3実施形態では、人の感情に変化を起こすイベントとして、運転状況が変化すること(運転状況の変化)を想定する。
[3.1.構成]
図4を用いて第3実施形態に係る感情推定装置10の構成を説明する。なお、第3実施形態においては、第1実施形態と同一の構成に同一の符号を付し、その説明を省略する。感情推定装置10は、車内カメラ12と、ナビゲーション装置50と、車速センサ52と、演算部14と、記録部16と、を有する。
ナビゲーション装置50は、ナビ演算部54と、ナビ記録部56と、通信部58と、測位部60と、HMI部62と、を有する。ナビ演算部54は、CPU等のプロセッサを備える。ナビ記録部56は、ROM、RAM等の記憶装置を備え、地図情報を記録する。通信部58は、道路に設けられる通信端末から送信される電波を受信する第1受信機と、放送局から送信される電波を受信する第2受信機と、を備える。測位部60は、GPS衛星から送信される電波を受信するGPS受信機とジャイロセンサを備える。ナビゲーション装置50は、種々の情報、例えば、各受信機により受信される交通情報やGPS受信機等で測位される車両位置等の情報を演算部14に出力する。車速センサ52は、車両の走行速度を検出して演算部14に出力する。
第3実施形態において、演算部14は、認識部20、イベント予測部22、リスク推定部64、頻度設定部26として機能する。リスク推定部64は、人が搭乗する車両の運転状況に対するリスク度合を推定する。
第3実施形態において、記録部16は、イベント情報30と予測情報32とを対応付けて記録し、また、リスク度合演算マップ66を記録する。第3実施形態において、イベント情報30は、運転状況の変化というイベントを規定する情報であり、予測情報32は、右左折地点に接近するという事前イベントを規定する情報である。ここでいう接近とは、車両位置と右左折地点との距離が所定距離以内になることである。リスク度合演算マップ66は、リスクパラメータ(交通事故件数、交通参加者数、車速等)とリスク度合とを予め対応付ける。ここでいうリスク度合とは、右左折地点または右左折地点以降における走行リスクのことをいう。以下の説明では、リスク度合を右左折地点における走行リスクとする。
[3.2.動作]
図5を用いて第3実施形態に係る感情推定装置10の動作を説明する。図5に示される一連の処理は定期的に行われる。図5に示される各処理のうち、ステップS12、ステップS15、ステップS16の処理は、図2に示されるステップS2、ステップS5、ステップS6の処理と同じである。以下では、独自の処理が行われるステップS11、ステップS13、ステップS14の処理を中心に第3実施形態で行われる処理を説明する。
ステップS11において、イベント予測部22は、予測情報32で規定される事前イベントの検出状況を監視し、イベントが発生するか否かを予測する。この処理において、ナビゲーション装置50は、最新の車両位置を測定し、車両位置から所定距離内に設定されている走行予定経路を監視する。所定距離の情報は予めナビ記録部56に記録される。ナビゲーション装置50は、車両位置から所定距離内に右左折地点があることを検出した場合に、演算部14に対して、右左折地点が所定距離内にあることを知らせる検出信号を出力する。イベント予測部22は、ナビゲーション装置50により事前イベント(右左折地点に接近する)が検出される場合に、イベント(道路状況の変化)が発生すると予測する(ステップS11:YES)。この場合に処理はステップS13に移行する。一方、イベント予測部22は、ナビゲーション装置50により事前イベントが検出されない場合に、イベントが発生しないと予測する(ステップS11:NO)。この場合に処理はステップS12に移行する。
ステップS11からステップS13に移行すると、頻度設定部26は、リスク推定部64による推定結果に基づいて、リスク度合を特定する。この処理において、ナビゲーション装置50は、通信部58を介して外部の通信端末または放送局から発信される右左折地点の道路の交通情報、例えば交通参加者数や事故件数の情報を取得し、演算部14に出力する。また、車速センサ52は、検出した車速を演算部14に出力する。リスク推定部64は、リスク度合演算マップ66を用いてリスクパラメータ(交通参加者数、事故件数、車速)の少なくとも1つに応じたリスク度合を推定する。頻度設定部26は、リスク推定部64により推定されるリスク度合を、右左折地点の道路のリスク度合として特定する。
ステップS14において、頻度設定部26は、リスク度合を基準値と比較する。基準値の情報は記録部16に予め記録される。リスク度合>基準値である場合(ステップS14:YES)、処理はステップS15に移行する。一方、リスク度合≦基準値である場合(ステップS14:NO)、処理はステップS16に移行する。
ステップS14、ステップS15、ステップS16のように、頻度設定部26は、運転状況の変化というイベントについての「イベントの内容」(リスク度合が基準値より高くなる運転状況変化か)に基づいて頻度を設定する。
[3.3.第3実施形態の変形例]
[3.3.1.変形例1]
第3実施形態を、第1実施形態と第2実施形態の少なくとも1つと組み合わせてもよい。
[3.3.2.変形例2]
記録部16は、リスク度合と頻度とを対応付けるマップを予め記録していてもよい。マップは、リスク度合が高くなるほど高い頻度を対応付ける。この場合、頻度設定部26は、リスク度合に対応する頻度をマップから求める。
[4.第4実施形態]
第4実施形態に係る感情推定装置10を説明する。第4実施形態では、人の感情に変化を起こすイベントとして、車両に搭乗する人に対して店の案内が報知されること(情報の報知)を想定する。
[4.1.構成]
図6を用いて第4実施形態に係る感情推定装置10の構成を説明する。なお、第4実施形態においては、第1実施形態と同一の構成に同一の符号を付し、その説明を省略する。感情推定装置10は、車内カメラ12と、ナビゲーション装置50と、演算部14と、記録部16と、を有する。
ナビゲーション装置50のナビ記録部56は、登録店情報68と距離情報70(第1距離、第2距離)を記録する。登録店情報68は、人によって登録される店の情報、例えば好みの店(嗜好性に沿った店)の情報であり、店の名前、位置情報を含む。距離情報70のうち第1距離は、店の案内を報知するタイミングを規定する情報である。距離情報70のうち第2距離は、報知の予測を行うタイミングを規定する情報である。なお、第1距離<第2距離である。本実施形態において、ナビゲーション装置50は、測位部60により測定される車両位置と登録店情報68として登録される店の位置との距離が第2距離以下となった場合に、好みの店に接近することを知らせる検出信号を出力し、第1距離以下となった場合に、HMI部62を介して車両が店に近づいたことを報知する。
第4実施形態において、演算部14は、イベント予測部22、認識部20、識別部24、自信度判定部72、頻度設定部26として機能する。自信度判定部72は、ナビゲーション装置50のHMI部62による報知内容の自信度を判定する。
第4実施形態において、記録部16は、イベント情報30と予測情報32とを対応付けて記録し、また、人-店データベース74(以下、人-店DB74ともいう。)と、第1自信度演算マップ80と、を記録する。第4実施形態において、イベント情報30は、情報(店の案内)の報知というイベントを規定する情報であり、予測情報32は、好みの店に接近するという事前イベントを規定する情報である。人-店DB74は、人情報36と、店情報76と、入店履歴情報78と、を含む。店情報76は、人情報36に紐付けられる情報であって、人情報36で記録される人が過去に訪れた店の名前、店の種別、位置等の情報を含む。入店履歴情報78は、人情報36および店情報76に紐付けられる情報であって、人が店を訪れた日付を時系列で示すデータである。第1自信度演算マップ80は、自信度パラメータ(入店回数、入店頻度等)と自信度とを予め対応付ける。ここでいう自信度とは、報知内容が適切であるか否かを計る尺度である。
[4.2.動作]
図7を用いて第4実施形態に係る感情推定装置10の動作を説明する。図7に示される一連の処理は定期的に行われる。図7に示される各処理のうち、ステップS22、ステップS25、ステップS26の処理は、図2に示されるステップS2、ステップS5、ステップS6の処理と同じである。以下では、独自の処理が行われるステップS21、ステップS23、ステップS24の処理を中心に第4実施形態で行われる処理を説明する。
ステップS21において、イベント予測部22は、予測情報32で規定される事前イベントの検出状況を監視し、イベントが発生するか否かを予測する。この処理において、ナビゲーション装置50は、最新の車両位置を測定し、車両と登録店情報68に登録される店との相対位置を監視する。ナビゲーション装置50は、車両と店との距離が第2距離(>第1距離)以内になった場合に、演算部14に対して、登録された店が第2距離以内にあること、すなわち好みの店に接近することを知らせる検出信号を出力する。イベント予測部22は、ナビゲーション装置50により事前イベント(好みの店に接近する)が検出される場合に、イベント(情報の報知)が発生すると予測する(ステップS21:YES)。この場合に処理はステップS23に移行する。一方、イベント予測部22は、ナビゲーション装置50により事前イベントが検出されない場合に、イベントが発生しないと予測する(ステップS21:NO)。この場合に処理はステップS22に移行する。
ステップS21からステップS23に移行すると、頻度設定部26は、自信度判定部72による判定結果に基づいて、自信度を特定する。この処理において、ナビゲーション装置50は、車両との距離が第2距離以内になった店の登録店情報68を演算部14に出力する。また、車内カメラ12は、車内を撮像した画像情報を演算部14に出力する。認識部20は、画像情報を用いた画像認識処理により車内の人の顔を認識する。識別部24は、認識部20により認識された人の顔の画像データを、人-店DB74の人情報36の顔画像データと照合することにより人を識別する。自信度判定部72は、識別された人の人情報36に紐付けられる店情報76の中から、登録店情報68と一致する店情報76を検索する。更に、自信度判定部72は、検索した店情報76に紐付けられる入店履歴情報78に基づき、入店回数または所定期間内の入店頻度を演算する。自信度判定部72は、第1自信度演算マップ80を用いて自信度パラメータ(入店回数、入店頻度)の少なくとも1つに応じた自信度を判定する。頻度設定部26は、自信度判定部72により判定される自信度を、報知情報の自信度として特定する。
ステップS24において、頻度設定部26は、自信度を基準値と比較する。基準値の情報は記録部16に予め記録される。自信度<基準値である場合(ステップS24:YES)、処理はステップS25に移行する。一方、自信度≧基準値である場合(ステップS24:NO)、処理はステップS26に移行する。
ステップS24、ステップS25、ステップS26のように、頻度設定部26は、情報の報知というイベントについての「イベントの内容」(システムとして自信度が高い報知かどうか)に基づいて頻度を設定する。
なお、演算部14は、人が実際に店に入店した場合に、人情報36および店情報76に紐付けられている入店履歴情報78を更新する。この際、演算部14は、入店履歴情報78として、店近辺で車両が駐車または発車した時点のシステム日付を新たに登録する。演算部14は、車両の駐車、発車をイグニッションスイッチ、スタートスイッチ等の操作により検出する。
[4.3.第4実施形態の変形例]
[4.3.1.変形例1]
第4実施形態を、第1実施形態~第3実施形態の少なくとも1つと組み合わせてもよい。また、頻度設定部26は、種類が異なるイベント内容である「人と他者との会話」、「人と他者の車両への搭乗」、「運転状況の変化」、「情報の報知」について、それぞれ特有の頻度を設定してもよい。
[4.3.2.変形例2]
記録部16は、自信度と頻度とを対応付けるマップを予め記録していてもよい。マップは、自信度が高くなるほど低い頻度を対応付ける。この場合、頻度設定部26は、自信度に対応する頻度をマップから求める。
[5.第5実施形態]
第5実施形態に係る感情推定装置10を説明する。第5実施形態では、人の感情に変化を起こすイベントとして、車両に搭乗する人に対して給油の推薦(推薦事項)が報知されること(情報の報知)を想定する。なお、本実施形態では、車両としてガソリンや軽油等を燃料とするガソリン車またはディーゼル車を想定する。
[5.1.構成]
図8を用いて第5実施形態に係る感情推定装置10の構成を説明する。なお、第5実施形態においては、第1実施形態と同一の構成に同一の符号を付し、その説明を省略する。感情推定装置10は、車内カメラ12と、ナビゲーション装置50と、燃料センサ86と、演算部14と、記録部16と、を有する。
燃料センサ86は、車両の燃料タンクに設けられる。燃料センサ86は、燃料タンク内の燃料の残量を検出し、ナビゲーション装置50と演算部14に出力する。
ナビゲーション装置50のナビ記録部56は、残量情報84(第1残量、第2残量)を記録する。残量情報84のうち第1残量は、給油の推薦を報知するタイミングを規定する情報である。残量情報84のうち第2残量は、報知の予測を行うタイミングを規定する情報である。なお、第1残量<第2残量である。本実施形態において、ナビゲーション装置50は、燃料センサ86により検出される燃料の残量が第1残量以下となった場合に、車内の人に、HMI部62を介して、給油の必要性を報知する。
第5実施形態において、演算部14は、認識部20、イベント予測部22、自信度判定部72、頻度設定部26として機能する。
第5実施形態において、記録部16は、イベント情報30と予測情報32とを対応付けて記録し、また、第2自信度演算マップ88を記録する。第5実施形態において、イベント情報30は、情報(給油の推薦)の報知というイベントを規定する情報であり、予測情報32は、燃料の残量が第2残量以下となるという事前イベントを規定する情報である。第2自信度演算マップ88は、自信度パラメータ(走行可能距離-目的地までの距離)と自信度とを予め対応付ける。
[5.2.動作]
第4実施形態と同様に、図7を用いて第5実施形態に係る感情推定装置10の動作を説明する。図7に示される一連の処理は定期的に行われる。以下では、第4実施形態と異なる処理が行われるステップ(ステップS21、ステップS23)を中心に第5実施形態で行われる処理を説明する。
ステップS21において、イベント予測部22は、予測情報32で規定される事前イベントの検出状況を監視し、イベントが発生するか否かを予測する。この処理において、燃料センサ86は、燃料の残量を検出してナビゲーション装置50と演算部14に出力する。ナビゲーション装置50は、燃料の残量が第2残量(>第1残量)以下となった場合に、演算部14に対して、給油の推薦の報知が行われることを知らせる信号を出力する。イベント予測部22は、ナビゲーション装置50により事前イベント(燃料の残量が第2残量以下となる)が検出される場合に、イベント(情報の報知)が発生すると予測する(ステップS21:YES)。この場合に処理はステップS23に移行する。一方、イベント予測部22は、ナビゲーション装置50により事前イベントが検出されない場合に、イベントが発生しないと予測する(ステップS21:NO)。この場合に処理はステップS22に移行する。
ステップS21からステップS23に移行すると、頻度設定部26は、自信度判定部72による判定結果に基づいて、自信度を特定する。この処理において、自信度判定部72は、燃料センサ86で検出される燃料の残量と、記録部16に記録される燃費と、に基づいて、給油せずに走行できる最長距離、すなわち走行可能距離を演算する。また、自信度判定部72は、ナビゲーション装置50で測定される車両位置から目的地までの距離を取得し、“走行可能距離-目的地までの距離”を演算する。自信度判定部72は、第2自信度演算マップ88を用いて“走行可能距離-目的地までの距離”に応じた自信度を判定する。頻度設定部26は、自信度判定部72により判定される自信度を、報知情報の自信度として特定する。
第4実施形態と同様に、頻度設定部26は、情報の報知というイベントについての「イベントの内容」(システムとして自信度が高い報知かどうか)に基づいて頻度を設定する。
[5.3.第5実施形態の変形例]
[5.3.1.変形例1]
第5実施形態を、第1実施形態~第4実施形態の少なくとも1つと組み合わせてもよい。
[5.3.2.変形例2]
記録部16が自信度と頻度とを対応付けるマップを記録し、頻度設定部26が自信度に対応する頻度をマップから求めるようにしてもよい。この場合、マップは、自信度が高くなるほど低い頻度を対応付ける。
[5.3.3.変形例3]
第5実施形態において、情報(給油の推薦)の報知の際に、質問を伴うようにしてもよい。例えば、ナビゲーション装置50は、人に対して給油を推薦する際に、給油地点を設定するか否かの問合せ(第1質問)を行うようにしてもよい。この問合せに対して、人は、HMI部62を使用してイエスまたはノーの回答をする。また、ナビゲーション装置50は、人に対して給油を推薦する際に、希望する給油地点の問合せ(第2質問)を行うようにしてもよい。この問合せに対して、人は、HMI部62を使用して給油地点の設定を行う。
頻度設定部26は、第2質問のようにイエスまたはノーで回答できるものでない場合に第1頻度を設定し、第1質問のようにイエスまたはノーで回答できるものである場合に第2頻度(<第1頻度)を設定する。
変形例3において、頻度設定部26は、情報の報知というイベントについての「イベントの内容」(イエスまたはノーで回答できる情報の報知か)に基づいて頻度を設定する。
[6.他の実施形態]
他のタイミングで感情推定を行う頻度を変更してもよい。例えば、人が携帯電話で通話する、または、人が携帯端末に届いたメッセージを読む、というイベントに対して、人の携帯端末に電話やメールが届くという事前イベントを設定してもよい。この場合、人の携帯端末に電話やメールが届いたことをトリガにして感情推定を行う頻度を通常頻度よりも高い頻度に設定する。
[7.実施形態から得られる発明]
上記実施形態および変形例から把握しうる発明について、以下に記載する。
本発明は、
人の感情に変化を起こすイベントごとにイベントの発生を予測するための予測情報32を記録する記録部16と、
予測情報32を検出することに基づいて、イベントの発生を予測するイベント予測部22と、
感情の推定を行う頻度を設定する頻度設定部26と、
を備え、
頻度設定部26は、イベント予測部22によりイベントの発生が予測される場合に、イベントの発生が予測されない場合よりも高い頻度を設定すると共に、イベントの内容に基づいて頻度を設定する。
上記構成によれば、人の感情に変化を起こすイベントの発生が予測される場合に、イベントの発生が予測されない場合よりも高い頻度を設定するため、人の感情を適切に把握することができる。また、イベント内容に基づいて頻度が設定されるため、必要以上の頻度で感情推定が行われることを抑制することができ、装置の演算負荷が大きくなることを抑制することができる。更に、イベントの発生が予測されない場合は通常の頻度で感情推定が行われるため、感情推定装置10の演算負荷が大きくなることを抑制することができる。
本発明(第1実施形態)において、
人と同行する他者を識別する識別部24を備え、
記録部16は、人と他者との会話の発生を予測するための予測情報32を記録し、
頻度設定部26は、識別部24による他者の識別結果に基づいて頻度を設定してもよい。
上記構成によれば、人と他者との会話という人の感情に変化を起こすイベントを予測することができ、その際に、人と他者との関係に基づいて頻度を設定するため、適切な頻度で感情推定を行うことができる。
本発明(第2実施形態)において、
人と同行する他者を識別する識別部24を備え、
記録部16は、人の車両への搭乗を予測するための予測情報32を記録し、
頻度設定部26は、識別部24による他者の識別結果に基づいて頻度を設定してもよい。
上記構成によれば、人と他者の車両への搭乗という人の感情に変化を起こすイベントを予測することができ、その際に、人と他者との関係に基づいて頻度を設定するため、適切な頻度で感情推定を行うことができる。
本発明(第1、第2実施形態)において、
記録部16は、複数の他者ごとに、人にとって気を遣う人物かどうか区別して記録し、
頻度設定部26は、他者が人にとって気を遣う人物である場合に第1頻度を設定し(図2のステップS5)、他者が人にとって気を遣う人物ではない場合に第1頻度よりも低い第2頻度を設定してもよい(図2のステップS6)。
本発明(第3実施形態)において、
人が搭乗する車両の運転状況に対するリスク度合を推定するリスク推定部64を備え、
記録部16は、車両の運転状況が変化することを予測するための予測情報32を記録し、
頻度設定部26は、リスク推定部64により推定される車両の運転状況の変化地点または変化後のリスク度合に基づいて頻度を設定してもよい。
上記構成によれば、運転状況の変化という人の感情に変化を起こすイベントを予測することができ、その際に、リスク度合に基づいて頻度を設定するため、適切な頻度で感情推定を行うことができる。
本発明(第3実施形態)において、
頻度設定部26は、リスク度合が高いほど頻度を高く設定してもよい。
例えば、頻度設定部26は、リスク度合が所定の基準値よりも高い場合に第1頻度を設定し(図5のステップS15)、リスク度合が基準値以下である場合に第1頻度よりも低い第2頻度を設定してもよい(図5のステップS16)。
本発明(第3実施形態)において、
リスク推定部64は、交通事故件数、車速、交通参加者数、の少なくとも1つに基づいてリスク度合を推定してもよい。
本発明(第4、第5実施形態)において、
人に対して所定情報を報知する報知部(HMI部62)と、
報知部による報知内容の自信度を判定する自信度判定部72と、を備え、
記録部16は、所定情報の報知が行われることを予測するための予測情報32を記録し、
頻度設定部26は、自信度判定部72により判定される自信度に基づいて頻度を設定してもよい。
上記構成によれば、人に対する情報の報知という人の感情に変化を起こすイベントを予測することができ、その際に、自信度に基づいて頻度を設定するため、適切な頻度で感情推定を行うことができる。
本発明(第4、第5実施形態)において、
頻度設定部26は、自信度が低いほど頻度を高く設定してもよい。
例えば、頻度設定部26は、自信度が所定の基準値よりも低い場合に第1頻度を設定し(図7のステップS25)、前記自信度が前記基準値よりも高い場合に前記第1頻度よりも低い第2頻度を設定してもよい(図7のステップS26)。
本発明(第4実施形態)において、
自信度判定部72は、自信度を人の嗜好性に沿っているか否かで判断してもよい。
本発明(第5実施形態の変形例2)において、
頻度設定部26は、人に対する報知内容が人に対する質問を伴うものであって、質問がイエスまたはノーで回答できるものでない場合に第1頻度を設定し、質問がイエスまたはノーで回答できるものである場合に第1頻度よりも低い第2頻度を設定してもよい。
なお、本発明に係る感情推定装置は、上述の実施形態に限らず、本発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。
10…感情推定装置 16…記録部
22…イベント予測部 24…識別部
26…頻度設定部 32…予測情報
62…HMI部(報知部) 64…リスク推定部
72…自信度判定部

Claims (11)

  1. 人の感情に変化を起こすイベントごとに当該イベントの発生前に発生する事前イベントを記録する記録部と、
    前記事前イベントを検出することに基づいて、前記イベントの発生を予測するイベント予測部と、
    前記感情の推定を行う頻度を設定する頻度設定部と、
    を備え、
    前記頻度設定部は、前記イベント予測部により前記イベントの発生が予測されることをトリガとして、前記イベントの発生が予測されない場合よりも高い前記頻度を設定すると共に、前記イベントの内容に基づいて当該頻度を設定する、感情推定装置。
  2. 請求項1に記載の感情推定装置であって、
    前記人と同行する他者を識別する識別部を備え、
    前記記録部は、前記人と前記他者との会話の発生を予測するための前記事前イベントを記録し、
    前記頻度設定部は、前記識別部による前記他者の識別結果に基づいて前記頻度を設定する、感情推定装置。
  3. 請求項1に記載の感情推定装置であって、
    前記人と同行する他者を識別する識別部を備え、
    前記記録部は、前記人の車両への搭乗を予測するための前記事前イベントを記録し、
    前記頻度設定部は、前記識別部による前記他者の識別結果に基づいて前記頻度を設定する、感情推定装置。
  4. 請求項2または3に記載の感情推定装置であって、
    前記記録部は、複数の前記他者ごとに、前記人にとって気を遣う人物かどうか区別して記録し、
    前記頻度設定部は、前記他者が前記人にとって気を遣う人物である場合に第1頻度を設定し、前記他者が前記人にとって気を遣う人物ではない場合に前記第1頻度よりも低い第2頻度を設定する、感情推定装置。
  5. 請求項1に記載の感情推定装置であって、
    前記人が搭乗する車両の運転状況に対するリスク度合を推定するリスク推定部を備え、
    前記記録部は、前記車両の運転状況が変化することを予測するための前記事前イベントを記録し、
    前記頻度設定部は、前記リスク推定部により推定される前記車両の運転状況の変化地点または変化後の前記リスク度合に基づいて前記頻度を設定する、感情推定装置。
  6. 請求項5に記載の感情推定装置であって、
    前記頻度設定部は、前記リスク度合が高いほど前記頻度を高く設定する、感情推定装置。
  7. 請求項6に記載の感情推定装置であって、
    前記リスク推定部は、交通事故件数、車速、交通参加者数、の少なくとも1つに基づいて前記リスク度合を推定する、感情推定装置。
  8. 請求項1に記載の感情推定装置であって、
    前記人に対して所定情報を報知する報知部と、
    前記報知部による報知内容の自信度を判定する自信度判定部と、を備え、
    前記記録部は、前記所定情報の報知が行われることを予測するための前記事前イベントを記録し、
    前記頻度設定部は、前記自信度判定部により判定される前記自信度に基づいて前記頻度を設定する、感情推定装置。
  9. 請求項8に記載の感情推定装置であって、
    前記頻度設定部は、前記自信度が低いほど前記頻度を高く設定する、感情推定装置。
  10. 請求項9に記載の感情推定装置であって、
    前記自信度判定部は、前記自信度を前記人の嗜好性に沿っているか否かで判断する、感情推定装置。
  11. 請求項9に記載の感情推定装置であって、
    前記頻度設定部は、前記人に対する前記報知内容が前記人に対する質問を伴うものであって、前記質問がイエスまたはノーで回答できるものでない場合に第1頻度を設定し、前記質問がイエスまたはノーで回答できるものである場合に前記第1頻度よりも低い第2頻度を設定する、感情推定装置。
JP2018203563A 2018-10-30 2018-10-30 感情推定装置 Active JP7076357B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018203563A JP7076357B2 (ja) 2018-10-30 2018-10-30 感情推定装置
US16/665,491 US11062159B2 (en) 2018-10-30 2019-10-28 Emotion estimation apparatus
CN201911042032.7A CN111128239B (zh) 2018-10-30 2019-10-30 情感推定装置
US17/343,043 US11657626B2 (en) 2018-10-30 2021-06-09 Emotion estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203563A JP7076357B2 (ja) 2018-10-30 2018-10-30 感情推定装置

Publications (2)

Publication Number Publication Date
JP2020071561A JP2020071561A (ja) 2020-05-07
JP7076357B2 true JP7076357B2 (ja) 2022-05-27

Family

ID=70325332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203563A Active JP7076357B2 (ja) 2018-10-30 2018-10-30 感情推定装置

Country Status (3)

Country Link
US (2) US11062159B2 (ja)
JP (1) JP7076357B2 (ja)
CN (1) CN111128239B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076357B2 (ja) * 2018-10-30 2022-05-27 本田技研工業株式会社 感情推定装置
CN111603184A (zh) * 2020-06-02 2020-09-01 南京励智心理大数据产业研究院有限公司 一种情绪传感设备及其使用方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143895A (ja) 2003-11-17 2005-06-09 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2005157480A (ja) 2003-11-20 2005-06-16 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2008068665A (ja) 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
JP2011003118A (ja) 2009-06-22 2011-01-06 Denso Corp 交通障害情報収集装置
JP2014102538A (ja) 2012-11-16 2014-06-05 Honda Motor Co Ltd 運転者状態推定装置
JP2016207001A (ja) 2015-04-24 2016-12-08 マツダ株式会社 運転支援装置
US20170143246A1 (en) 2015-11-20 2017-05-25 Gregory C Flickinger Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
JP2017138762A (ja) 2016-02-03 2017-08-10 トヨタ自動車株式会社 運転者の感情推定装置
JP2018067105A (ja) 2016-10-18 2018-04-26 クラリオン株式会社 車載装置および覚醒システム
JP2018151684A (ja) 2017-03-09 2018-09-27 オムロン株式会社 運転モード切替制御装置、方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389178B2 (en) * 2003-12-11 2008-06-17 Greenroad Driving Technologies Ltd. System and method for vehicle driver behavior analysis and evaluation
US7317406B2 (en) * 2005-02-03 2008-01-08 Toyota Technical Center Usa, Inc. Infrastructure-based collision warning using artificial intelligence
US20080096533A1 (en) * 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions
JP4797948B2 (ja) * 2006-11-22 2011-10-19 株式会社デンソー 運転行動推定方法および装置
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
GB2495265A (en) * 2011-07-07 2013-04-10 Toyota Motor Europe Nv Sa Artificial memory system for predicting behaviours in order to assist in the control of a system, e.g. stability control in a vehicle
US8876535B2 (en) * 2013-03-15 2014-11-04 State Farm Mutual Automobile Insurance Company Real-time driver observation and scoring for driver's education
US9786154B1 (en) * 2014-07-21 2017-10-10 State Farm Mutual Automobile Insurance Company Methods of facilitating emergency assistance
US9731713B2 (en) * 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
JP2016071577A (ja) 2014-09-30 2016-05-09 マツダ株式会社 運転者状態検出方法および検出装置
US10035514B1 (en) * 2014-11-21 2018-07-31 Lytx, Inc. Dynamic configuration of event recorder content capture
US10315665B2 (en) * 2016-01-29 2019-06-11 Faraday & Future Inc. System and method for driver pattern recognition, identification, and prediction
US10529046B1 (en) * 2016-02-08 2020-01-07 Allstate Insurance Company Vehicle rating system
US10170111B2 (en) * 2017-01-19 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior
CN106956271B (zh) * 2017-02-27 2019-11-05 华为技术有限公司 预测情感状态的方法和机器人
US20180308569A1 (en) * 2017-04-25 2018-10-25 S Eric Luellen System or method for engaging patients, coordinating care, pharmacovigilance, analysis or maximizing safety or clinical outcomes
JP7076357B2 (ja) * 2018-10-30 2022-05-27 本田技研工業株式会社 感情推定装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143895A (ja) 2003-11-17 2005-06-09 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2005157480A (ja) 2003-11-20 2005-06-16 Nissan Motor Co Ltd 運転者心理状態判定装置
JP2008068665A (ja) 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
JP2011003118A (ja) 2009-06-22 2011-01-06 Denso Corp 交通障害情報収集装置
JP2014102538A (ja) 2012-11-16 2014-06-05 Honda Motor Co Ltd 運転者状態推定装置
JP2016207001A (ja) 2015-04-24 2016-12-08 マツダ株式会社 運転支援装置
US20170143246A1 (en) 2015-11-20 2017-05-25 Gregory C Flickinger Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
JP2017138762A (ja) 2016-02-03 2017-08-10 トヨタ自動車株式会社 運転者の感情推定装置
JP2018067105A (ja) 2016-10-18 2018-04-26 クラリオン株式会社 車載装置および覚醒システム
JP2018151684A (ja) 2017-03-09 2018-09-27 オムロン株式会社 運転モード切替制御装置、方法およびプログラム

Also Published As

Publication number Publication date
CN111128239B (zh) 2023-10-17
US20210295074A1 (en) 2021-09-23
US11657626B2 (en) 2023-05-23
US20200134337A1 (en) 2020-04-30
US11062159B2 (en) 2021-07-13
CN111128239A (zh) 2020-05-08
JP2020071561A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
CN106652515B (zh) 车辆自动控制方法、装置和***
US20200001892A1 (en) Passenger assisting apparatus, method, and program
US10780879B2 (en) Parking controller, parking control system, and parking control method
EP3239686A1 (en) Method for determining driving characteristics of a vehicle
JP4371057B2 (ja) 車両用エージェント装置、エージェントシステム及びエージェント制御方法
US11027737B2 (en) Travel control apparatus and travel control method
CN111047891B (zh) 驾驶辅助装置、车辆、驾驶辅助***、驾驶辅助方法及存储介质
US11657626B2 (en) Emotion estimation apparatus
CN110738749B (zh) 车载装置、信息处理装置、信息处理方法
JP7172070B2 (ja) 情報処理システム及びサーバ
CN110941982A (zh) 乘车举止评价装置、评价***、评价方法以及存储介质
US11209282B2 (en) Vehicle cleanliness detection and carwash recommendation
CN111260481A (zh) 信息处理***、程序及控制方法
CN111310062A (zh) 匹配方法、匹配服务器、匹配***以及存储介质
CN110633814A (zh) 信息处理装置、信息处理***、信息处理方法、以及存储了信息处理程序的记录介质
CN111340984A (zh) 基于数字钥匙的约车方法、装置及电子设备
US11391593B2 (en) Vehicle-mounted device, server, navigation system, recording medium storing map display program, and map display method
JP2017167963A (ja) 保険条件決定装置、保険条件決定方法、およびプログラム
CN110941253B (zh) 驾驶评价装置、驾驶评价***、驾驶评价方法及存储介质
CN113508606B (zh) 根据噪声多模态数据自动确定针对兴趣点的最优运输服务位置
JP2018059721A (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
US20220207447A1 (en) Information providing device, information providing method, and storage medium
CN113496446A (zh) 物品归还方法、装置、计算机设备和存储介质
US20220306124A1 (en) Information providing apparatus
CN113902570A (zh) 信息处理装置、信息处理***、程序以及车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150