JP7100471B2 - 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム - Google Patents

車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム Download PDF

Info

Publication number
JP7100471B2
JP7100471B2 JP2018046788A JP2018046788A JP7100471B2 JP 7100471 B2 JP7100471 B2 JP 7100471B2 JP 2018046788 A JP2018046788 A JP 2018046788A JP 2018046788 A JP2018046788 A JP 2018046788A JP 7100471 B2 JP7100471 B2 JP 7100471B2
Authority
JP
Japan
Prior art keywords
voice
vehicle
driver
unit
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018046788A
Other languages
English (en)
Other versions
JP2019159147A (ja
Inventor
浩明 小窪
則男 度會
和憲 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018046788A priority Critical patent/JP7100471B2/ja
Priority to US16/980,094 priority patent/US11498576B2/en
Priority to PCT/JP2019/003464 priority patent/WO2019176356A1/ja
Priority to CN201980019021.9A priority patent/CN111868822A/zh
Priority to EP19767983.0A priority patent/EP3767621A4/en
Publication of JP2019159147A publication Critical patent/JP2019159147A/ja
Application granted granted Critical
Publication of JP7100471B2 publication Critical patent/JP7100471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システムに関する。
近年、自動車の運転者(以下、ドライバと称する)による危険運転が社会問題となっており、運転中のドライバに対する様々なサポート機能が提案されている。
例えば特許文献1には、ドライバの運転操作に関する情報からドライバの心理状態を推定し、推定した心理状態に応じてドライバに警告を発する技術が開示されている。
特開2010-143362号公報
一般にドライバの心理状態を判定するための情報としては、ドライバの動作、瞬きの頻度、心拍数等が知られているが、これらを検出するためにはカメラや生体センサ等の多種多様なセンサが必要となり、その設置コストや設置スペースの確保が問題となる。
また、特許文献1に記載されている方法では、ドライバの運転操作に関する情報を取得する必要があるので、今後普及が見込まれている自動運転のようにドライバが主体的に運転に関与していない場合には適用できない。現状では自動運転中であってもドライバの注意義務が完全に免除されることはないので、自動運転中であってもドライバの心理状態を推定できる技術の出現が望まれている。
本発明は、このような状況に鑑みてなされたものであり、多種多様なセンサを用いることなく、ドライバの発声に基づき、ドライバの心理状態が影響し得る車両の走行状態を推定できるようにすることを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明の一態様に係る車載装置は、ドライバが発した音声を収集する音声収集部と、車両の走行状態を表す走行状態情報を収集する走行状態収集部と、収集された前記音声に対応する音声情報に、収集された前記走行状態情報を対応付けてデータベースを生成するデータベース生成部と、生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習部と、前記推定モデルを用い、前記ドライバの発声に基づいて前記車両の前記走行状態を推定する推定部と、を備えることを特徴とする。
本発明によれば、多種多様なセンサを用いることなく、ドライバの発声に基づき、ドライバの心理状態が影響し得る車両の走行状態を推定することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る第1の実施の形態である車載装置の構成例を示すブロック図である。 音声-走行状態データベースのデータ構造の一例を示す図である。 教師あり学習を説明するための図である。 推定モデル生成処理の一例を説明するフローチャートである。 走行状態推定処理の一例を説明するフローチャートである。 本発明に係る第2の実施の形態である走行状態推定システムの構成例を示すブロック図である。 本発明に係る第3の実施の形態である走行状態推定システムの構成例を示すブロック図である。 本発明に係る第1の実施の形態である車載装置の第1の変形例を示すブロック図である。 本発明に係る第1の実施の形態である車載装置の第2の変形例を示すブロック図である。 本発明に係る第1の実施の形態である車載装置の第3の変形例を示すブロック図である。 走行状態の異常を判定する方法について説明するための図である。 コンピュータの構成例を示すブロック図である。
以下、本発明に係る複数の実施の形態を図面に基づいて説明する。なお、各実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aよりなる」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。
<ドライバが発する音声と車両の走行状態の相関について>
はじめに、ドライバが発する音声と車両の走行状態との相関について説明する。
一般的に、人はいらいらしているときには早口、大声になったり、眠いときには声量に抑揚がなくなって平坦になったりするように、人の心理状態と発声には相関が有る。そして、いらいらしているときには気が荒くなって急加速や急ハンドルが増えたりし、眠いときには注意力が散漫になって急ブレーキが増えたりするように、ドライバの心理状態は、ドライバの運転、すなわち、車両の走行状態に影響し得る。本発明は、ドライバの発声に基づき、ドライバの心理状態が影響し得る車両の走行状態を推定するものである。
<本発明に係る第1の実施の形態である車載装置の構成例>
図1は、本発明に係る第1の実施の形態である車載装置の構成例を示している。
該車載装置10は、ドライバ(ユーザ)が発する音声(発声)を収集し、ドライバの音声に基づいてドライバの運転状態、換言すれば、車載装置10が搭載されている車両の走行状態を推定するものである。車載装置10は、例えばナビゲーションシステムや車載コンピュータシステム等を構成する一装置として、自動車等の車両に搭載される。推定された走行状態は、例えばドライバに対する注意喚起等のフィードバックに用いられる。
ここで、ドライバが発する音声とは、例えばナビゲーションシステムや車載コンピュータシステムに対してドライバが発声する音声コマンドを想定する。ただし、収集するドライバの音声は、音声コマンドに限るものではなく、例えば、同乗者等との会話や独り言を収集するようにしてもよい。
車載装置10は、音声収集部11、走行状態収集部12、DB(データベース)生成部13、学習部14、推定モデル15、及び推定部16を備える。
音声収集部11は、マイクロフォン、及びADコンバータ(いずれも不図示)を用い、ドライバが発する音声を収集し、その結果得られる音声信号を特徴ベクトル(本発明の音声情報に相当する)に変換する。特徴ベクトルとしては、(FCC(メル周波数ケプストラム係数)、ピッチ、パワー等を挙げることができる。ただし、音声信号を変換して得られる特徴ベクトルは、上述した例に限るものではなく、他の特徴ベクトルに変換するようにしてもよい。
また、音声収集部11は、推定モデル生成処理(後述)において、音声の特徴ベクトルに該音声の収集時刻を付与してDB生成部13に出力する。また、音声収集部11は、走行状態推定処理(後述)において、音声の特徴ベクトルを推定部16に出力する。
なお、音声収集部11が用いるマイクロフォン等は、車載装置10用に設けてもよいし、車載されているナビゲーションシステム等が備えるものを流用してもよい。
走行状態収集部12は、車両の走行状態を検出するための加速度センサ、ジャイロセンサ、及び燃費センサ(不図示)のうちの少なくとも1つを用い、該センサの出力値と所定の閾値との比較結果に基づき、ドライバによる運転の荒さや危険回避行動の指標となる走行状態情報(急加速、急ブレーキ、急ハンドルの回数、燃費データ等)を収集し、走行状態情報に収集時刻を付与してDB生成部13に出力する。なお、走行状態収集部12が用いる加速度センサ等は、車載装置10用に設けてもよいし、予め該車両に設けられているものを流用してもよい。
DB生成部13は、音声収集部11から入力される音声の特徴ベクトルに、該音声の収集時刻に前後する所定時間(例えば、前後5分間)に走行状態収集部12にて収集される走行状態情報を対応付けて記録することにより音声・走行状態DB131を生成する。
図2は、音声・走行状態DB131のデータ構造の一例を示している。
音声・走行状態DB131に記録される各データには、音声情報フィールド1311及び走行状態情報フィールド1312が設けられている。
音声情報フィールド1311には、DB生成部13から入力される音声の特徴ベクトルを格納する。これにより、音声情報フィールド1311に音声信号をそのまま格納する場合に比較して、格納するデータ量を減少させることができる。
走行状態情報フィールド1312には、走行状態情報として、急加速等の回数を表す数値を記録する。なお、数値を記録する代わりに、急加速等の回数と所定閾値を比較して決定する「多い」、「普通」、「少ない」、「良い」、「悪い」等の評価を記録してもよい。
図1に戻る。学習部14は、音声・走行状態DB131に記録されている、音声の特徴ベクトルとそれに対応する走行状態情報の対を学習データとし、音声の特徴ベクトルを入力ベクトル、それに対応する走行状態情報を教師ラベルとする教師あり学習を実施することによって推定モデル15を生成する。
学習部14による教師あり学習について図3を参照して説明する。図3は、入力ベクトル空間100に、走行状態情報の教師ラベルを付した音声信号の特徴ベクトルをプロットした模式図である。
図中における黒丸は、急加速「少」、急ブレーキ「少」、燃費「良」の走行状態の教師ラベルが付された音声の特徴ベクトルの分布を表す。白三角は、急加速「少」、急ブレーキ「多」、燃費「良」の走行状態の教師ラベルが付された音声の特徴ベクトルの分布を表す。黒四角は、急加速「多」、急ブレーキ「少」、燃費「悪」の走行状態の教師ラベルが付された音声の特徴ベクトルの分布を表す。
学習部14による教師あり学習では、黒丸が分布する領域101と、白三角△が分布する領域102と、黒四角が分布する領域103との識別面104,105を定めた推定モデル15を生成する。
よって、推定モデル15は、入力ベクトル空間100が識別面104等によって教師ラベルの数と同数の領域に分割されたものとなる。推定モデル15によれば、入力ベクトル空間100にて、音声の特徴ベクトルがどの領域に属しているのかを判断することによって、該音声が収集されたときの走行状態を推定することができる。
図1に戻る。推定部16は、推定モデル15を用いて走行状態を推定し、推定結果を表す走行状態情報を後段に出力する。
<車載装置10による推定モデル生成処理>
次に、図4は、車載装置10による推定モデル生成処理の一例を説明するフローチャートである。
該推定モデル生成処理は、例えば、車載装置10が搭載されている車両が走行し始めたときに開始される。
はじめに、音声収集部11が、ドライバが発する音声を収集し、該音声に対応する音声信号を特徴ベクトルに変換してDB生成部13に出力する動作を開始する(ステップS1)。一方、走行状態収集部12が、車両の走行状態を表す走行状態情報を収集してDB生成部13に出力する動作を開始する(ステップS2)。なお、ステップS1,S2の処理は実際には同時に開始される。
次に、DB生成部13が、音声収集部11から入力された音声の特徴ベクトルに、該音声の収集時刻に前後する所定時間に走行状態収集部12にて収集された走行状態情報を対応付けて記録することにより音声・走行状態DB131を生成する(ステップS3)。
次に、学習部14が、音声・走行状態DB131に記録されている学習データ(音声の特徴ベクトルと走行状態情報との対)を用いて教師あり学習を実施することによって推定モデル15を生成する(ステップS4)。なお、学習部14による教師あり学習は、音声・走行状態DB131に学習データが所定数だけ溜まってから実行するようにする。
この後、車載装置10は処理をステップS3に戻してそれ以降を繰り返すことになる。ステップS3,S4の処理を繰り返すことにより、学習部14はより多くの学習データを用いて教師あり学習を行うことができるので、生成される推定モデル15の精度を向上させることができる。
<車載装置10による走行状態推定処理>
次に、図5は、車載装置10による走行状態推定処理の一例を説明するフローチャートである。
該走行状態推定処理は、上述した推定モデル生成処理により推定モデル15が生成されていることを前提とし、例えば、車載装置10が搭載されている車両が走行し始めたときに開始される。
はじめに、音声収集部11が、ドライバが発する音声を収集し、該音声に対応する音声信号を特徴ベクトルに変換して推定部16に出力する処理を開始する(ステップS11)。次に、推定部16が、音声収集部11からの入力を監視し、音声の特徴ベクトルが入力されたか否かを判定する(ステップS12)。音声の特徴ベクトルが入力されていないと判定した場合(ステップS12でNO)、推定部16は音声収集部11からの入力の監視を継続する。
また、音声の特徴ベクトルが入力されたと判定した場合(ステップS12でYES)、推定部16は、推定モデル15を用い、音声収集部11から入力された音声の特徴ベクトルが属する入力ベクトル空間100の領域に基づいて車両の走行状態を推定し、推定結果を表す走行状態情報を後段に出力する。この後、車載装置10は処理をステップS12に戻して、それ以降を繰り返すことになる。
以上に説明した走行状態推定処理によれば、ドライバの動作、瞬きの頻度、心拍数等を検知するセンサを用いることなく、ドライバの発声に基づき、ドライバの心理状態が影響し得る車両の走行状態を推定することが可能となる。
なお、車載装置10から出力される走行状態情報の用途については任意であるが、その例については、後述する変形例にて説明する。
<本発明に係る第2の実施の形態である走行状態推定システムの構成例>
次に、図6は、本発明に係る第2の実施の形態である走行状態推定システムの構成例を示している。
該走行状態推定システム20は、通信ネットワーク40を介して接続される複数の車載装置30とサーバ装置50とから構成される。通信ネットワーク40は、例えば、携帯電話通信網やインターネット等から成る。
車載装置30及びサーバ装置50には、車載装置10(図1)の構成要素が分散配置されており、車載装置30及びサーバ装置50それぞれの構成要素のうち、車載装置10の構成要素と共通するものには同一の符号を付して、その説明は適宜省略する。
車載装置30は、車載装置10からDB生成部13及び学習部14を省略して通信部31を追加した構成を有する。なお、車載装置30から省略されたDB生成部13及び学習部14は、サーバ装置50に設けられている。
すなわち、車載装置30は、音声収集部11、走行状態収集部12、推定モデル15、推定部16、及び通信部31を備える。
車載装置30における音声収集部11は、推定モデル生成処理において、音声の特徴ベクトルに該音声の収集時刻を付与して通信部31に出力し、走行状態推定処理において、音声の特徴ベクトルを推定部16に出力する。
車載装置30における走行状態収集部12は、収集した走行状態情報に収集時刻を付与して通信部31に出力する。
通信部31(本発明の第1通信部に相当する)は、推定モデル生成処理において、音声収集部11から入力される音声の特徴ベクトルと、該音声の収集時刻を基準とする所定の時間範囲内に走行状態収集部12にて収集された走行状態情報とを対応付けて、通信ネットワーク40を介してサーバ装置50に送信する。さらに、通信部31は、サーバ装置50にて生成された推定モデル15を受信し、車載装置30に既存の推定モデル15を更新する。
サーバ装置50は、DB生成部13、学習部14、推定モデル15、及び通信部51を備える。
サーバ装置50におけるDB生成部13は、各車載装置30から通信ネットワーク40を介して入力される音声の特徴ベクトルに、該音声の収集時刻に前後する所定時間に、対応する各車載装置30の走行状態収集部12にて収集される走行状態情報を対応付けて記録することにより音声・走行状態DB131を生成する。
サーバ装置50における学習部14は音声・走行状態DB131を用い、教師あり学習を実施することによって推定モデル15を生成し、生成した推定モデル15を、通信ネットワーク40を介して各車載装置30に送信する。
通信部51(本発明の第2通信部に相当する)は、各車載装置30から通信ネットワーク40を介して送信される音声の特徴ベクトルを受信してDB生成部13に出力する。また、通信部51は、各車載装置30から通信ネットワーク40を介して送信される走行状態情報を受信してDB生成部13に出力する。さらに、通信部51は、学習部14にて生成された推定モデル15を、通信ネットワーク40を介して各車載装置30に送信する。
走行状態推定システム20では、推定モデル生成処理は主にサーバ装置50にて実行され、走行状態推定処理は車載装置30にて実行されることになる。推定モデル生成処理を主に実行するサーバ装置50には、複数の車載装置30が接続されているので、サーバ装置50のDB生成部13で生成される音声・走行状態DB131には、第1の実施の形態よりも多くの学習データが記録され易くなる。よって、学習部14で生成される推定モデル15の精度は第1の実施の形態より高くなる。したがって、走行状態推定システム20は、車載装置10に比較して、ドライバの心理状態が影響し得る車両の走行状態の推定精度の向上が期待できる。
<本発明に係る第3の実施の形態である走行状態推定システムの構成例>
次に、図7は、本発明に係る第3の実施の形態である走行状態推定システムの構成例を示している。
該走行状態推定システム60は、通信ネットワーク40を介して接続される複数の車載装置70とサーバ装置80とから構成される。
車載装置70及びサーバ装置80には、車載装置10の構成要素が分散配置されており、車載装置70及びサーバ装置80それぞれの構成要素のうち、車載装置10の構成要素と共通するものには同一の符号を付して、その説明は適宜省略する。
車載装置70は、車載装置10からDB生成部13、学習部14、推定モデル15、及び推定部16を省略して通信部71を追加した構成を有する。なお、車載装置70から省略されたDB生成部13、学習部14、推定モデル15、及び推定部16は、サーバ装置80に設けられている。
すなわち、車載装置70は、音声収集部11、走行状態収集部12、及び通信部71を備える。
車載装置70における音声収集部11は、推定モデル生成処理において、音声の特徴ベクトルに該音声の収集時刻を付与して通信部71に出力し、走行状態推定処理において、音声の特徴ベクトルを通信部71に出力する。
車載装置70における走行状態収集部12は、収集した収集時刻を付与して通信部71に出力する。
通信部71は、推定モデル生成処理において、音声収集部11が出力する音声の特徴ベクトルと、走行状態収集部12が出力する走行状態情報を、通信ネットワーク40を介してサーバ装置80に送信する。さらに、通信部71は、走行状態推定処理において、音声収集部11が出力する音声の特徴ベクトルを、通信ネットワーク40を介してサーバ装置80に送信し、サーバ装置80から送信される、推定された走行状態情報を受信する。
サーバ装置80は、DB生成部13、学習部14、推定モデル15、推定部16、及び通信部81を備える。
通信部81は、推定モデル生成処理時において、各車載装置70から通信ネットワーク40を介して送信される音声の特徴ベクトルを受信してDB生成部13に出力する。また、通信部81は、推定モデル生成処理時において、各車載装置70から通信ネットワーク40を介して送信される走行状態情報を受信してDB生成部13に出力する。さらに、通信部81は、推定モデル生成処理時において、各車載装置70から通信ネットワーク40を介して送信される音声の特徴ベクトルを推定部16に出力し、該特徴ベクトルに基づく推定部16による推定結果を表す走行状態情報を、通信ネットワーク40を介して各車載装置70に送信する。
走行状態推定システム60では、推定モデル生成処理及び走行状態推定処理は主にサーバ装置80にて実行されることになる。推定モデル生成処理を主に実行するサーバ装置80には、複数の車載装置70が接続されるので、サーバ装置80のDB生成部13で生成される音声・走行状態DB131には、第1の実施の形態よりも多くの学習データが記録され易くなる。よって、学習部14で生成される推定モデル15の精度は、第1の実施の形態より高くなる。したがって、走行状態推定システム60は、車載装置10に比較して、ドライバの心理状態が影響し得る車両の走行状態の推定精度の向上が期待できる。また、推定モデル生成処理及び走行状態推定処理における車載装置70の処理負荷を、車載装置10に比較して減らすことができる。
<本発明に係る第1の実施の形態である車載装置の第1の変形例>
次に、図8は、本発明に係る第1の実施の形態である車載装置の第1の変形例を示している。
該車載装置110は、車載装置10(図1)に応答生成部111及びHMI(Human Machine Interface)部112を追加したものである。車載装置110の構成要素のうち、車載装置10の構成要素と共通するものには同一の符号を付して、その説明は適宜省略する。
応答生成部111(本発明のフィードバック生成部に相当する)は、推定部16が出力する走行状態情報を入力とし、推定された走行状態に応じた応答(ドライバに対するフィードバック)を生成してHMI部112に出力する。HMI部112は、例えばスピーカやディスプレイ(いずれも不図示)等を用い、応答生成部111によって生成された応答を、例えば、音声メッセージや画面表示としてドライバに提示する。なお、HMI部112が用いるスピーカ等は、車載装置110用に設けてもよいし、車両に設けられているものを流用してもよい。
ドライバの心理状態が影響し得る所領の走行状態に応じた応答とは、例えば走行状態として「急ブレーキが多い」と推定された場合には、ドライバの心理状態として、覚醒状態が低かったり、注意力が散漫していたりする可能性が高いので、ドライバに対して「運転に集中してください」等の注意喚起を促すメッセージや「このあたりで休憩しましょう」等の休憩を提案するメッセージをスピーカから音声出力したり、ディスプレイにテキスト表示したりするようにする。
また例えば、走行状態として「急加速が多く、燃費が悪い」と推定された場合には、ドライバの心理状態として、慌てていたり、緊張していたりする可能性が高いので、ドライバに対して「リラックスしてください」等の注意喚起を促すメッセージを音声出力またはテキスト出力したり、クラッシック音楽やスローバラード等の気分を落ち着かせる楽曲を再生出力したりするようにする。
以上に説明した車載装置110によれば、各種センサを用いることなく、ドライバの発声に基づき、ドライバの心理状態が影響し得る走行状態を推定することが可能となることに加えて、推定した走行状態に応じたフィードバック(応答)によってドライバを適切にサポートすることが可能となる。
<本発明に係る第1の実施の形態である車載装置の第2の変形例>
次に、図9は、本発明に係る第1の実施の形態である車載装置の第2の変形例を示している。
該車載装置120は、車載装置10(図1)に音声認識部121、応答生成部122、及びHMI部123を追加したものである。車載装置120の構成要素のうち、車載装置10の構成要素と共通するものには同一の符号を付して、その説明は適宜省略する。
ただし、車載装置120の音声収集部11は、走行状態推定処理において、収集した音声の特徴ベクトルを推定部16に出力するとともに、収集した音声の音声信号を音声認識部121に出力するようにする。
音声認識部121は、音声収集部11から入力されるドライバの音声信号に対して音声認識処理を行い、音声認識結果を応答生成部122に出力する。なお、音声認識部121にマイクロフォンを接続し、音声収集部11を介することなくドライバの音声信号を入力するようにしてもよい。
応答生成部122は、推定部16が出力する走行状態情報と、音声認識部121の音声認識結果(発声内容)とを入力としドライバの心理状態が影響し得る車両の走行状態と発声内容に応じた応答を生成してHMI部123に出力する。HMI部123は、例えばスピーカやディスプレイ(いずれも不図示)等を用い、応答生成部122によって生成された応答を、例えば、音声メッセージや画面表示としてドライバに提示する。なお、HMI部123が用いるスピーカ等は、車載装置120用に設けてもよいし、車両に設けられているものを流用してもよい。
走行状態と発声内容に応じた応答とは、例えば、ドライバの発声内容が「音楽をかけて」であって、走行状態として「急加速が多く、燃費が悪い」と推定された場合、ドライバの心理状態は、急いでいたり、緊張していたりする可能性が高いと推定できるので、ドライバの気分を落ち着かせるためにクラッシック音楽やスローバラード等の楽曲を選曲して再生出力するようにする。反対に、走行状態として「急ブレーキが多い」と推定された場合、ドライバの心理状態は覚醒状態が低い状態(眠気が有る状態)である可能性があると推定できるので、眠気を覚ますようなアップテンポの楽曲を選曲して再生出力するようにする。
また例えば、ドライバの発声内容が「レストランを探して」であって、走行状態として「急加速や急ブレーキがない(平常状態)」と推定された場合、ドライバの心理状態は安定し、時間的な余裕があると推定できるので、予め設定されているドライバの好みに合ったレストランを検索して、検索結果を出力するようにする。反対に、走行状態として「急加速が多く、燃費が悪い」と推定された場合、ドライバの心理状態は焦っていて時間的な余裕がないと推定できるので、ドライバの好みよりもなるべく早く到着できるレストランを優先して検索し、検索結果を出力するようにする。
以上に説明した車載装置120によれば、各種センサを用いることなく、ドライバの発声に基づき、ドライバの心理状態が影響し得る走行状態を推定することが可能となる。
また、車載装置120によれば、ドライバからの音声コマンドを判断して実行するに際し、音声認識結果だけでなく、推定した走行状態も用いるので、音声認識結果には現れてこない言外の心理状態を踏まえたフィードバック(応答)によってドライバを適切にサポートすることが可能となる。
<本発明に係る第1の実施の形態である車載装置の第3の変形例>
次に、図10は、本発明に係る第1の実施の形態である車載装置の第3の変形例を示している。
該車載装置140は、車載装置10(図1)に走行状態異常判定部141、発声促進部142、及びHMI部143を追加したものである。車載装置140の構成要素のうち、車載装置10の構成要素と共通するものには同一の符号を付して、その説明は適宜省略する。
ただし、車載装置140の走行状態収集部12は、収集した走行状態情報に収集時刻を付与してDB生成部13に出力するとともに、収集した走行状態情報を走行状態異常判定部141に出力するものとする。
走行状態異常判定部141は、走行状態収集部12から入力される走行状態情報に基づき、通常の走行状態から逸脱した異常走行状態を検出する。
図11は、走行状態異常判定部141による異常走行状態の検出判定に用いる、異常運転(急加速、急ブレーキ、急ハンドル等)の頻度の時系列変化を示しており、横軸が時間、縦軸が頻度を示している。
走行状態異常判定部141は、走行状態収集部12から入力される走行状態情報に基づき、異常運転の頻度をカウントし、そのカウント値が所定の閾値を超えたとき(図11のタイミングt1)、異常走行状態にあると判定し、その旨を発声促進部142に通知する。
発声促進部142は、走行状態異常判定部141からの、異常走行状態にある旨の通知に応じ、ドライバに対して発声を促す質問メッセージ、例えば「そろそろ休憩を取りませんか?」、「まもなくお昼です。レストランを検索しますので、食べたい料理を教えてください。」、「音楽を聴きましょう。どのアーティストのアルバムを再生しますか?」等の質問文を生成してHMI部143に出力する。なお、質問メッセージは、予め用意されているもののから走行状態や時刻等に応じて選択するようにしてもよい。
HMI部143は、例えばスピーカやディスプレイ(いずれも不図示)等を用い、発声促進部142によって生成された質問文を、例えば、音声メッセージや画面表示としてドライバに提示する。なお、HMI部143が用いるスピーカ等は、車載装置140用に設けてもよいし、車両に設けられているものを流用してもよい。
以上に説明した車載装置140によれば、異常走行状態であると判定したときにドライバに発声を促すので、ドライバの発声を能動的に収集でき、教師あり学習の学習データを効率的に収集できる。よって、生成される推定モデル15の精度を高めて走行状態の推定精度を向上させることが可能となる。
なお、上述した第1~第3の変形例は適宜組み合わせることが可能である。すなわち、例えば、第1の変形例や第2の変形例に、第3の変形例における走行状態異常判定部141、及び発声促進部142を追加してもよい。
また、上述した本発明に係る第2及び第3の実施の形態は、上述した第1~第3の変形例と同様に変形することが可能である。
ところで、上述した車載装置10,30,70,110,120,130,140及びサーバ装置50,80については、ハードウェアにより構成することもできるし、ソフトウェアにより実現することもできる。車載装置10等をソフトウェアにより実現する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図12は、車載装置10等をプログラムにより実現するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。また、入出力インターフェース205には、マイクロフォン、ADコンバータ、加速度センサ、ジャイロセンサ,燃費センサ等(いずれも不図示)が接続されていてもよい。
さらに、入出力インターフェース205には、GPS受信機等の測位信号受信部、OBDポート等の自動車の車内ネットワークに接続するための接続部、FM多重放送受信部等が接続されていてもよい。
入力部206は、キーボード、マウス、マイクロフォン等より成る。出力部207は、ディスプレイやスピーカ等より成る。記憶部208は、ハードディスクやSSD(Solid State Drive)等より成る。通信部209は、通信電話モジュールやWi-Fi通信モジュール等より成る。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インターフェース205およびバス204を介して、RAM203にロードして実行することにより、車載装置10等が実現される。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、通信ネットワーク、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
本発明は、車載装置、走行状態推定方法、サーバ装置、及び走行状態推定システムだけでなく、コンピュータ読み取り可能なプログラム等の様々な態様で提供することができる。
10・・・車載装置、11・・・音声収集部、12・・・走行状態収集部、13・・・DB生成部13・・・生成部、14・・・学習部、15・・・推定モデル、16・・・推定部、20・・・走行状態推定システム、21・・・通信部、30・・・車載装置、31・・・通信部、40・・・通信ネットワーク、50・・・サーバ装置、51・・・通信部、60・・・走行状態推定システム、70・・・車載装置、71・・・通信部、80・・・サーバ装置、81・・・通信部、100・・・入力ベクトル空間、101・・・領域、102・・・領域、103・・・領域、104・・・識別面、105・・・識別面、110・・・車載装置、111・・・応答生成部、112・・・HMI部、120・・・車載装置、121・・・音声認識部、122・・・応答生成部、123・・・HMI部、130・・・車載装置、140・・・車載装置、141・・・走行状態異常判定部、142・・・発声促進部、143・・・HMI部、200・・・コンピュータ、201・・・CPU、202・・・ROM、203・・・RAM、204・・・バス、205・・・入出力インターフェース、206・・・入力部、207・・・出力部、208・・・記憶部、209・・・通信部、210・・・ドライブ、211・・・リムーバブルメディア

Claims (16)

  1. ドライバが発した音声を収集する音声収集部と、
    車両の走行状態を表す走行状態情報を収集する走行状態収集部と、
    収集された前記音声に対応する音声情報に、収集された前記走行状態情報を対応付けてデータベースを生成するデータベース生成部と、
    生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習部と、
    前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定部と、
    を備えることを特徴とする車載装置。
  2. 請求項1に記載の車載装置であって、
    前記学習部は、前記学習データの前記音声情報を入力ベクトル、前記学習データの前記走行状態情報を教師ラベルとして、教師あり学習により前記推定モデルを生成する
    ことを特徴とする車載装置。
  3. 請求項1に記載の車載装置であって、
    前記データベース生成部は、収集された前記音声に対応する音声情報に、前記音声の収集時刻に前後して収集された前記走行状態情報を対応付けて前記データベースを生成する
    ことを特徴とする車載装置。
  4. 請求項1に記載の車載装置であって、
    前記音声収集部は、ドライバが発した音声を特徴ベクトルに変換し、
    前記データベース生成部は、収集された前記音声に対応する前記音声情報としての前記特徴ベクトルと、収集された前記走行状態情報とを対応付けて前記データベースを生成する
    ことを特徴とする車載装置。
  5. 請求項1に記載の車載装置であって、
    前記走行状態収集部は、加速度センサ、ジャイロセンサ、及び燃費センサのうちの少なくとも1つの出力値に基づき前記走行状態情報を収集する
    ことを特徴とする車載装置。
  6. 請求項1に記載の車載装置であって、
    推定された前記走行状態に応じて前記ドライバに対するフィードバックを生成するフィードバック生成部を、
    備えることを特徴とする車載装置。
  7. 請求項6に記載の車載装置であって、
    収集された前記ドライバの前記音声を認識する音声認識部を、
    備え、
    前記フィードバック生成部は、前記ドライバの前記音声の音声認識結果と、推定された前記走行状態とに応じて前記ドライバに対する前記フィードバックを生成する
    備えることを特徴とする車載装置。
  8. 請求項1に記載の車載装置であって、
    前記ドライバに対して発声を促す発声促進部を、
    備えることを特徴とする車載装置。
  9. 請求項8に記載の車載装置であって、
    異常走行状態であるか否かを判定する走行状態異常判定部を、
    備え、
    前記発声促進部は、異常走行状態であると判定された場合、前記ドライバに対して発声を促す
    ことを特徴とする車載装置。
  10. 車載装置による走行状態推定方法であって、
    ドライバが発した音声を収集する音声収集ステップと、
    車両の走行状態を表す走行状態情報を収集する走行状態収集ステップと、
    収集された前記音声に対応する音声情報に、収集された前記走行状態情報を対応付けてデータベースを生成するデータベース生成ステップと、
    生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習ステップと、
    前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定ステップと、
    を含むことを特徴とする走行状態推定方法。
  11. 通信ネットワークを介して接続される車載装置とサーバ装置とを備える走行状態推定システムであって、
    前記車載装置は、
    ドライバが発した音声を収集する音声収集部と、
    車両の走行状態を表す走行状態情報を収集する走行状態収集部と、
    収集された前記音声に対応する音声情報、及び前記走行状態情報を前記サーバ装置に送信する第1通信部と、を備え、
    前記サーバ装置は、
    前記車載装置から送信された前記音声情報及び前記走行状態情報を受信する第2通信部と、
    受信された前記音声情報に前記走行状態情報を対応付けてデータベースを生成するデータベース生成部と、
    生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習部と、を備え、
    前記車載装置または前記サーバ装置は、
    前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定部を、備える
    ことを特徴とする走行状態推定システム。
  12. 通信ネットワークを介して接続される車載装置とサーバ装置とを備える走行状態推定システムの走行状態推定方法であって、
    前記車載装置による、ドライバが発した音声を収集するとともに、車両の走行状態を表す走行状態情報を収集する収集ステップと、
    前記車載装置による、収集された前記音声に対応する音声情報、及び前記走行状態情報を前記サーバ装置に送信する送信ステップと、
    前記サーバ装置による、前記車載装置から送信された前記音声情報及び前記走行状態情報を受信する受信ステップと、
    前記サーバ装置による、受信された前記音声情報に前記走行状態情報を対応付けてデータベースを生成するデータベース生成ステップと、
    前記サーバ装置による、生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習ステップと、
    前記車載装置または前記サーバ装置による、前記推定モデルを用い、前記車載装置で収集された前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定ステップと、
    を含むことを特徴とする走行状態推定方法。
  13. 車載装置から送信されたドライバの音声に対応する音声情報、及び車両の走行状態情報を受信し、受信した前記音声情報に前記走行状態情報を対応付けて記録したデータベースを生成し、生成した前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習するサーバ装置とともに走行状態推定システムを成す車載装置であって、
    ドライバが発した音声を収集する音声収集部と、
    車両の走行状態を表す前記走行状態情報を収集する走行状態収集部と、
    収集された前記音声に対応する前記音声情報、及び前記走行状態情報を前記サーバ装置に送信する通信部と、
    前記サーバ装置で学習された前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定部と、
    を備えることを特徴とする車載装置。
  14. 車載装置から送信されたドライバの音声に対応する音声情報、及び車両の走行状態情報を受信し、受信した前記音声情報に前記走行状態情報を対応付けて記録したデータベースを生成し、生成した前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習するサーバ装置とともに走行状態推定システムを成す車載装置の走行状態推定方法であって、
    ドライバが発した音声を収集する音声収集ステップと、
    車両の走行状態を表す前記走行状態情報を収集する走行状態収集ステップと、
    収集された前記音声に対応する前記音声情報、及び前記走行状態情報を前記サーバ装置に送信する送信ステップと、
    前記サーバ装置で学習された前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定ステップと、
    を含むことを特徴とする走行状態推定方法。
  15. ドライバが発した音声を収集するとともに、車両の走行状態を表す走行状態情報を収集し、収集した前記音声に対応する音声情報、及び前記走行状態情報を送信する車載装置とともに走行状態推定システムを成すサーバ装置であって、
    前記車載装置から送信された前記音声情報及び前記走行状態情報を受信する通信部と、
    受信された前記音声情報に前記走行状態情報を対応付けてデータベースを生成するデータベース生成部と、
    生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習部と、
    前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定部と、
    を備えることを特徴とするサーバ装置。
  16. ドライバが発した音声を収集するとともに、車両の走行状態を表す走行状態情報を収集し、収集した前記音声に対応する音声情報、及び前記走行状態情報を送信する車載装置とともに走行状態推定システムを成すサーバ装置の情報処理方法であって、
    前記車載装置から送信された前記音声情報及び前記走行状態情報を受信する受信ステップと、
    受信された前記音声情報に前記走行状態情報を対応付けてデータベースを生成するデータベース生成ステップと、
    生成された前記データベースに記録されている前記音声情報と前記走行状態情報との対を学習データとして推定モデルを学習する学習ステップと、
    前記推定モデルを用い、前記ドライバの発声に基づいて、前記ドライバの心理状態が影響し得る前記車両の前記走行状態を推定する推定ステップと、
    を含むことを特徴とする情報処理方法。
JP2018046788A 2018-03-14 2018-03-14 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム Active JP7100471B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018046788A JP7100471B2 (ja) 2018-03-14 2018-03-14 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム
US16/980,094 US11498576B2 (en) 2018-03-14 2019-01-31 Onboard device, traveling state estimation method, server device, information processing method, and traveling state estimation system
PCT/JP2019/003464 WO2019176356A1 (ja) 2018-03-14 2019-01-31 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム
CN201980019021.9A CN111868822A (zh) 2018-03-14 2019-01-31 车载装置、行驶状态推算方法、服务器装置、信息处理方法和行驶状态推算***
EP19767983.0A EP3767621A4 (en) 2018-03-14 2019-01-31 ON-BOARD DEVICE, MOVEMENT STATE ESTIMATION METHOD, SERVER DEVICE, INFORMATION PROCESSING METHOD AND MOVEMENT STATE ESTIMATION SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046788A JP7100471B2 (ja) 2018-03-14 2018-03-14 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム

Publications (2)

Publication Number Publication Date
JP2019159147A JP2019159147A (ja) 2019-09-19
JP7100471B2 true JP7100471B2 (ja) 2022-07-13

Family

ID=67908326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046788A Active JP7100471B2 (ja) 2018-03-14 2018-03-14 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム

Country Status (5)

Country Link
US (1) US11498576B2 (ja)
EP (1) EP3767621A4 (ja)
JP (1) JP7100471B2 (ja)
CN (1) CN111868822A (ja)
WO (1) WO2019176356A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114302372A (zh) * 2021-11-30 2022-04-08 科大讯飞(苏州)科技有限公司 车辆警报方法及装置、车辆及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000186942A (ja) 1998-12-23 2000-07-04 Equos Research Co Ltd エ―ジェントメンタルモデル作成装置、及びエ―ジェント装置
JP2006350567A (ja) 2005-06-14 2006-12-28 Toyota Motor Corp 対話システム
JP2007272834A (ja) 2006-03-31 2007-10-18 Equos Research Co Ltd ドライバモデル作成装置、運転支援装置、及び運転行動判定装置
JP2009205645A (ja) 2008-02-29 2009-09-10 Equos Research Co Ltd ドライバモデル作成装置
JP2010143362A (ja) 2008-12-18 2010-07-01 Konica Minolta Holdings Inc ドライバサポートシステム
JP2010198120A (ja) 2009-02-23 2010-09-09 Nissan Motor Co Ltd 運転状態判定装置及び運転状態判定方法
JP2016110449A (ja) 2014-12-08 2016-06-20 富士通テン株式会社 運転支援システムおよび運転支援方法
US20180061415A1 (en) 2011-04-22 2018-03-01 Emerging Automotive, Llc Methods and vehicles for capturing emotion of a human driver and moderating vehicle response

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140241B2 (en) 2005-12-28 2012-03-20 National University Corporation Nagoya University Driving action estimating device, driving support device, vehicle evaluating system, driver model creating device, and driving action determining device
DE102006049965A1 (de) 2006-02-11 2007-10-18 Volkswagen Ag Vorrichtung und Verfahren zur interaktiven Informationsausgabe und/oder Hilfestellung für den Benutzer eines Kraftfahrzeugs
DE102014204980B4 (de) 2013-07-05 2017-10-05 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Einschränkung oder Zwangsaktivierung von Kraftfahrzeugfunktionen
CN105303829A (zh) * 2015-09-11 2016-02-03 深圳市乐驰互联技术有限公司 汽车驾驶员情绪识别方法及装置
CN105292125B (zh) * 2015-10-30 2020-10-27 北京九五智驾信息技术股份有限公司 驾驶员状态监测方法
WO2018029789A1 (ja) 2016-08-09 2018-02-15 日産自動車株式会社 自動運転車両の制御方法及び制御装置
JP2018046788A (ja) 2016-09-23 2018-03-29 ユーハ味覚糖株式会社 Dha及び/又はepa高含有グミ状組成物
CN107316436B (zh) * 2017-07-31 2021-06-18 努比亚技术有限公司 危险驾驶状态处理方法、电子设备及存储介质
CN107662611A (zh) * 2017-11-06 2018-02-06 吉林大学 一种基于驾驶员情绪识别的自动驾驶模式切换***
KR102302917B1 (ko) * 2017-12-18 2021-09-15 현대모비스 주식회사 안전운전 지원 장치 및 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000186942A (ja) 1998-12-23 2000-07-04 Equos Research Co Ltd エ―ジェントメンタルモデル作成装置、及びエ―ジェント装置
JP2006350567A (ja) 2005-06-14 2006-12-28 Toyota Motor Corp 対話システム
JP2007272834A (ja) 2006-03-31 2007-10-18 Equos Research Co Ltd ドライバモデル作成装置、運転支援装置、及び運転行動判定装置
JP2009205645A (ja) 2008-02-29 2009-09-10 Equos Research Co Ltd ドライバモデル作成装置
JP2010143362A (ja) 2008-12-18 2010-07-01 Konica Minolta Holdings Inc ドライバサポートシステム
JP2010198120A (ja) 2009-02-23 2010-09-09 Nissan Motor Co Ltd 運転状態判定装置及び運転状態判定方法
US20180061415A1 (en) 2011-04-22 2018-03-01 Emerging Automotive, Llc Methods and vehicles for capturing emotion of a human driver and moderating vehicle response
JP2016110449A (ja) 2014-12-08 2016-06-20 富士通テン株式会社 運転支援システムおよび運転支援方法

Also Published As

Publication number Publication date
WO2019176356A1 (ja) 2019-09-19
JP2019159147A (ja) 2019-09-19
CN111868822A (zh) 2020-10-30
EP3767621A1 (en) 2021-01-20
US11498576B2 (en) 2022-11-15
US20210061290A1 (en) 2021-03-04
EP3767621A4 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
JP6953464B2 (ja) 情報プッシュ方法及び装置
EP3675121B1 (en) Computer-implemented interaction with a user
US10133917B2 (en) Lifelog recording system
CN106209138B (zh) 一种车辆谨慎紧急响应***及方法
CN101992779B (zh) 车辆中的智能音乐选择方法
JP2017168097A (ja) 状況に特有の車両ドライバとの交信を提供するためのシステムおよび方法
US10159410B2 (en) Method and apparatus for biometric data gathering and dissemination
US11702103B2 (en) Affective-cognitive load based digital assistant
US20170043782A1 (en) Reducing cognitive demand on a vehicle operator by generating passenger stimulus
US11211095B1 (en) Modifying media content playback based on user mental state
US11875770B2 (en) Systems and methods for selectively providing audio alerts
JP2010149757A (ja) 覚醒持続支援システム
CN112078498A (zh) 一种车辆智能座舱的声音输出控制方法和智能座舱
CN109849786A (zh) 基于车速播放音乐的方法、***、装置及可读存储介质
JP7100471B2 (ja) 車載装置、走行状態推定方法、サーバ装置、情報処理方法、及び走行状態推定システム
JP2005049773A (ja) 音楽再生装置
JP2018133696A (ja) 車載装置、コンテンツ提供システムおよびコンテンツ提供方法
US11928390B2 (en) Systems and methods for providing a personalized virtual personal assistant
US11427216B2 (en) User activity-based customization of vehicle prompts
CN109785861B (zh) 基于行车数据的多媒体播放控制方法、存储介质及终端
CN116391216A (zh) 在导航会话期间检测和处理驾驶事件声音
KR20210073461A (ko) 에이전트 관리 장치, 프로그램, 및 에이전트 관리 방법
WO2021210088A1 (ja) 収集システム、収集装置、その方法、およびプログラム
JP2021072064A (ja) 認知機能診断システム
CN116168704B (zh) 语音交互的引导方法、装置、设备、介质及车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150