JP2022061873A - 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム - Google Patents

車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム Download PDF

Info

Publication number
JP2022061873A
JP2022061873A JP2020170106A JP2020170106A JP2022061873A JP 2022061873 A JP2022061873 A JP 2022061873A JP 2020170106 A JP2020170106 A JP 2020170106A JP 2020170106 A JP2020170106 A JP 2020170106A JP 2022061873 A JP2022061873 A JP 2022061873A
Authority
JP
Japan
Prior art keywords
vehicle
information
unit
function
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020170106A
Other languages
English (en)
Inventor
景子 中野
Keiko Nakano
智景 久保
Chikage Kubo
英一 前田
Hidekazu Maeda
博之 西澤
Hiroyuki Nishizawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020170106A priority Critical patent/JP2022061873A/ja
Priority to CN202111151427.8A priority patent/CN114291008A/zh
Priority to US17/494,214 priority patent/US20220105948A1/en
Publication of JP2022061873A publication Critical patent/JP2022061873A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】本発明は、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能な車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムを提供することを目的とする。【解決手段】車載器から撮影画像及び車両情報を受信し(150)、撮影画像から乗員を識別し(152)、識別した乗員の属性を特定し(154)、特定した属性に対応する車両の機能を検索して車両の機能を案内する動画を説明情報として車載器に送信する(156~162)。【選択図】図6

Description

本発明は、装置の説明や操作の説明等を行うエージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムに関する。
特許文献1は、各種車載ユニットの操作に関係のある情報を提供する車両用エージェント処理装置が開示されている。詳細には、車両エージェント処理装置は、無線通信部で受信した信号として、肉声を含む音声情報が与えられたときは音声認識を行った後で、電子メールの場合はそのままで、それぞれ構文解析部を行って意味解釈し、自動車内の各種車載ユニットの操作に関係のある情報を取捨選択して優先的に要約し、これを音声合成してスピーカから出力する。また、各種車載ユニットの操作が必要と推定される場合は、その旨をエージェント処理部で自動的に判断し、その車載ユニットの操作案内情報を付加して音声案内する。
特開2001-141500号公報
特許文献1の車両用エージェント処理装置では、車載ユニットの操作案内情報を音声案内できるが、車両に装備された機能を乗員に案内するような場合を考えると、乗員を区別することなく、一律同じ音声案内が行われ、乗員によっては不要な案内を行う可能性があるため、改善の余地がある。
そこで、本発明は、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能な車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の車両用エージェント装置は、車両に乗車した乗員を識別する識別部と、前記識別部によって識別した前記乗員の属性を特定する特定部と、前記車両が有する機能のうち、前記特定部が特定した前記属性に対応する前記機能を案内する動画像の案内情報を車両に搭載された車載器に出力する制御を行う制御部と、を含む。
請求項1に記載の発明によれば、識別部では、車両に乗車した乗員が識別され、特定部では、識別部によって識別した乗員の属性が特定される。属性の一例としては、乗員の運転技術、運転傾向、機能認知度、車両の機能の利用有無等が挙げられる。
そして、制御部では、車両が有する機能のうち、特定部が特定した属性に対応する機能を案内する動画像の案内情報を車両に搭載された車載器に出力する制御が行われる。これにより、乗員の属性に応じた機能の説明を案内するので、車両の機能を案内する際に、乗員毎に適切な案内が可能となる。
なお、前記制御部は、予め定めた条件に応じた再生時間に前記案内情報を調整する処理を更に行って車載器に出力してもよい。これにより、予め定めた条件に応じて再生時間を調整した動画像で機能が案内されるので、乗員の状況に応じた再生時間で機能の説明を視聴することが可能となる。
また、前記再生時間の調整は、再生速度及び再生するコンテンツ数の少なくとも一方を調整してもよい。このように再生速度及びコンテンツ数の少なくとも一方を調整することで、再生時間を調整することができる。
また、前記車載器は、前記車両の状況が、予め定めた状運転に影響しない況の場合に、前記動画像で前記機能の説明を案内してもよい。これにより、運転に影響しない状況の場合に、動画像で機能が案内されるので、機能の案内を動画像で視聴する際の安全を確保することが可能となる。
また、前記制御部は、前記属性に対応した前記機能のうち、予め定めた利用頻度以下の前記機能、または利用していない期間が予め定めた期間以上の前記機能の前記案内情報を出力してもよい。これにより、あまり利用せずに忘れている機能を乗員に案内することが可能となる。
また、前記制御部は、前記識別部によって識別した乗員が乗車した車種履歴を前記属性として特定し、前記識別部が識別した乗員の前記車種履歴から、現在乗車中の車両の前記機能のうち、過去の車両を含めて利用したことがない前記機能の前記案内情報を出力してもよい。これにより、乗員が過去に利用した車種履歴を含めて知らない機能を乗員に案内することが可能となる。
また、前記制御部は、前記識別部によって識別した乗員が乗車した車種履歴を前記属性として特定し、前記識別部が識別した乗員の前記車種履歴から、過去の操作方法と異なる操作方法の前記機能の前記案内情報を出力してもよい。これにより、過去に乗車した車両の操作方法とは、異なる操作方法の機能を乗員に提案することが可能となる。
また、発話内容の意図を理解する意図理解部と、前記意図理解部によって理解した発話内容に対する回答情報を生成する生成部と、を更に含む形態としてもよい。これにより、対話により、乗員と対話することが可能となる。
なお、上記車両用エージェント装置と、車両に設けられ、前記識別部が識別するための情報を取得し、前記制御部より出力された前記案内情報を受信して再生する車載器と、を含む車両用エージェントシステムとしてもよい。
また、コンピュータを、上記車両用エージェント装置として機能させるための車両用エージェントプログラムとしてもよい。
以上説明したように本発明によれば、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能な車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムを提供できる。
本実施形態に係る車両用エージェントシステムの概略構成を示す図である。 本実施形態の車両のハードウェア構成の一例を示すブロック図である。 本実施形態のエージェントサーバのハードウェア構成を示すブロック図である。 車載器及びエージェントサーバの機能構成を示す機能ブロック図である。 本実施形態に係る車両用エージェントシステムにおいて、乗員が車両に乗車した際に車載器で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおいて、車載器から撮影画像及び車両情報が送信された場合にエージェントサーバで行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおいて、車載器を介して乗員がエージェントサーバと対話する際の車載器で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおいて、車載器を介して乗員がエージェントサーバと対話する際のエージェントサーバで行われる処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。本実施形態では、車両の機能に関する情報を乗員に提供する車両用エージェントシステムを一例として説明する。図1は、本実施形態に係る車両用エージェントシステムの概略構成を示す図である。
車両用エージェントシステム10は、図1に示すように、複数の車両14と、車両用エージェント装置の一例としてのエージェントサーバ12と、を含むサーバネットワークシステムとして構成されている。
各車両14には車載器16が搭載され、通信ネットワーク18を介してエージェントサーバ12と車載器16と間の通信が行われる。
次に、車両14のハードウェア構成について説明する。図2は、本実施形態の車両のハードウェア構成の一例を示すブロック図である。
図2に示すように、車両14は、車載器16と、複数のECU20と、マイク22と、スピーカ24と、モニタ26と、カメラ28とを含んで構成されている。
車載器16は、CPU(Central Processing Unit)16A、ROM(Read Only Memory)16B、RAM(Random Access Memory)16C、車内通信I/F(Inter Face)16D、無線通信I/F16E、及び入出力I/F16Fを含んで構成されている。CPU16A、ROM16B、RAM16C、車内通信I/F16D、無線通信I/F16E、及び入出力I/F16Fは、内部バス16Gを介して相互に通信可能に接続されている。
CPU16Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU16Aは、ROM16Bからプログラムを読み出し、RAM16Cを作業領域としてプログラムを実行する。
ROM16Bは、各種プログラム及び各種データを記憶している。本実施形態のROM16Bには、車載器16を制御するための制御プログラムが記憶されている。
RAM16Cは、上述したように、CPU16Aによる各種プログラムの実行時の作業領域としてプログラム又はデータを一時的に記憶する。
車内通信I/F16Dは、ECU20と接続するためのインタフェースである。当該インタフェースは、CANプロトコルによる通信規格が用いられる。車内通信I/F16Dは、外部バス16Hに対して接続されている。ECU20は、車両14の機能毎に複数設けられている。本実施形態のECU20としては、車両制御ECU、エンジンECU、ブレーキECU、ボデーECU、マルチメディアECU等が例示される。
無線通信I/F16Eは、エージェントサーバ12と通信するための無線通信モジュールである。当該無線通信モジュールは、例えば、5G、LTE、Wi-Fi(登録商標)等の通信規格が用いられる。無線通信I/F16Eは、通信ネットワーク18に対して接続されている。
入出力I/F16Fは、車両14に搭載されるマイク22、スピーカ24、モニタ26、及びカメラ28と通信するためのインタフェースである。
マイク22は、車両14のフロントピラーやダッシュボード等に設けられ、乗員が発した音声を集音する装置である。
スピーカ24は、ドアトリム等に設けられ、音楽や、エージェントサーバ12から受信した情報に基づく音声等を出力する。
モニタ26は、センタコンソールやメータパネルに設けられ、各種情報を表示するための液晶モニタ等のモニタである。モニタ26は、入力スイッチ等の操作部を含むタッチパネルとして設けてもよい。
カメラ28は、例えば、ルームミラーの近傍等の車室内に設けられ、運転者等の乗員を撮影する。本実施形態では、乗員を特定するために乗員の顔を主に撮影する。
続いて、エージェントサーバ12のハードウェア構成について説明する。図3は、本実施形態のエージェントサーバ12のハードウェア構成を示すブロック図である。
図3に示すようにエージェントサーバ12は、CPU12A、ROM12B、RAM12C、ストレージ12D、及び通信I/F12Eを含んで構成されている。CPU12A、ROM12B、RAM12C、ストレージ12D及び通信I/F12Eは、内部バス12Gを介して相互に通信可能に接続されている。CPU12A、ROM12B、RAM12C及び通信I/F12Eの機能は、上述した車載器16のCPU16A、ROM16B、RAM16C及び無線通信I/F16Eと同じである。
ストレージ12Dは、HDD(Hard Disk Drive)、またはSSD(Solid State Drive)等の記憶装置により構成され、各種プログラム及び各種データを記憶している。
CPU12Aは、ストレージ12Dからプログラムを読み出し、RAM12Cを作業領域としてプログラムを実行する。
本実施形態のストレージ12Dには、処理プログラム30及びデータ群32が記憶されている。処理プログラム30は、エージェントサーバ12が有する各機能を実現するためのプログラムである。
次に、車載器16及びエージェントサーバ12の各々の機能構成について説明する。図4は、車載器16及びエージェントサーバ12の機能構成を示す機能ブロック図である。
車載器16は、CPU16AがROM16Bに格納されたプログラムをRAM16Cに展開して実行することで、撮影制御部50、車両情報取得部52、音声入力処理部54、出力処理部56、及び通信部58の機能を有する。
撮影制御部50は、車室内に設けられたカメラ28による撮影を制御し、乗員を識別するために乗員の顔等の撮影を行って撮影画像を表す画像情報を生成する。
車両情報取得部52は、車載器16が搭載された車両の各種情報を取得する。取得する車両の情報としては、例えば、車種を識別する情報や、車両を識別する情報、走行に関する情報、車両14に搭載された各種センサの検出結果などが挙げられるが、本実施形態では、車種を識別する情報及び車両を識別する情報を少なくとも取得する。
音声入力処理部54は、乗員の発話をマイク22によって集音して、音声情報を生成する処理を行う。
出力処理部56は、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答情報や、エージェントサーバ12から受信した情報を音声としてスピーカ24から出力する処理や、モニタ26に表示する処理等を行う。
通信部58は、エージェントサーバ12と通信を確立して、情報の授受を行う。例えば、カメラ28によって撮影された撮影画像を表す画像情報や、車両情報、音声入力処理部54によって生成された音声情報をエージェントサーバ12へ送信すると共に、エージェントサーバ12から各種情報を受信する処理を行う。
一方、エージェントサーバ12は、CPU12AがROM12Bに格納されたプログラムをRAM12Cに展開して実行することで、複数の機能を有する。当該複数の機能としては、制御部70、生成部の一例としての対話制御部60、意図理解部62、識別部の一例としての個人認識部64、特定部の一例としての属性特定部66、DB(データベース)68、及び通信部72の機能を有する。
対話制御部60は、車載器16から受信した音声情報をテキスト情報に変換して意図理解部62に出力する。また、対話制御部60は、意図理解部62の意図理解に基づいて、回答情報を生成する処理を行う。回答情報の生成は、例えば、意図理解結果に対応する回答を予め記憶しておき、対応する回答を抽出して回答情報を生成する。
意図理解部62は、乗員の発話の意図を理解するために、変換されたテキスト情報に基づいて、テキスト情報が示す意図理解を行う。意図理解は、周知の種々の技術を適用して、乗員の発話の意図を理解するため、詳細な説明は省略する。
個人認識部64は、車載器16から受信した乗員の撮影画像に基づいて、DB68に予め登録された利用者の中から乗員を認識する処理を行う。
属性特定部66は、DB68に格納された情報に基づいて、個人認識部64が認識した乗員の運転技術、運転傾向、機能認知度、車両の機能の利用有無等の属性を特定する。
DB68は、ストレージ12D内の領域に設けられた記憶領域であり、DB68には、テキスト情報を意図理解するための情報や、個人を識別するための情報、属性を特定するための情報、車両毎の機能を案内する情報等の各種情報が格納される。なお、車両毎の機能を案内する情報は、機能自体に関する情報、及び当該機能を使用するための操作方法に関する情報の少なくとも一方の情報を含むようにしてもよい。
制御部70は、通信部72を介して行う情報の送受信を制御する。例えば、制御部70は、個人認識部64によって識別されて属性特定部66によって特定された乗員の属性に対応する車両の機能を案内する情報(文字情報や動画像等)をDB68から抽出し、抽出した中から乗員が乗車する車両の情報を車載器16に送信することで、車両の機能を案内する情報を案内情報として出力する処理を行う。なお、乗員の属性に対応する機能を案内する情報をDB68から抽出する際に、属性に対応した前記機能のうち、予め定めた利用頻度以下の機能、または利用していない期間が予め定めた期間以上の機能を案内する情報を抽出してもよい。或いは、車種履歴を属性として特定し、乗員の車種履歴から、現在乗車中の車両の機能のうち、過去の車両を含めて利用したことがない機能を抽出してもよい。或いは、乗員が乗車した車種履歴を属性として特定し、乗員の前記車種履歴から、過去の操作方法と異なる操作方法の機能を抽出してもよい。また、車両の機能を案内する情報としては、機能自体に関する情報を抽出してもよいし、車両の機能を使用するための操作方法に関する情報を案内情報として抽出してもよいし、車両の機能自体に関する情報と、当該機能を使用するための操作方法に関する情報とを抽出してもよい。
また、制御部70は、車両の機能を案内する動画像を出力する際に、予め定めた条件(例えば、曜日、時間帯、及び車両の停止予測時間の少なくとも1つの時間に関連する関連情報等の条件)に従って動画像の再生時間を調整する処理を行う。再生時間の調整は、再生速度及びコンテンツ数の少なくとも一方を調整することで再生時間の調整を行う。
通信部72は、車載器16と通信を確立して、情報の授受を行う。例えば、撮影画像を表す画像情報や、車両情報、音声情報を車載器16から受信すると共に、エージェントサーバ12から機器の説明情報等の各種情報を車載器16に送信する処理を行う。
続いて、上述のように構成された本実施形態に係る車両用エージェントシステム10の各部で行われる具体的な処理について説明する。
まず、乗員が車両14に乗車した際に車載器16で行われる処理の流れの一例について説明する。図5は、本実施形態に係る車両用エージェントシステム10において、乗員が車両14に乗車した際に車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図5の処理は、車両14に乗員が乗車した際に開始する。例えば、イグニッションスイッチがオンされた場合に開始してもよいし、着座センサ等によって乗員の乗車を検知した場合に開始してもよい。
ステップ100では、CPU16Aが、カメラ28によって乗員を撮影してステップ102へ移行する。すなわち、撮影制御部50が、車室内に設けられたカメラ28による撮影を制御して、乗員を識別するために乗員の顔等の撮影を行う。
ステップ102では、CPU16Aが、車両情報を取得してステップ104へ移行する。すなわち、車両情報取得部52は、車載器16が搭載された車両の車種を識別する情報及び車両を識別する情報を少なくとも含む車両情報を取得する。
ステップ104では、CPU16Aが、撮影画像及び車両情報をエージェントサーバ12に送信してステップ106へ移行する。すなわち、通信部58が、エージェントサーバ12と通信を確立して、撮影画像及び車両情報をエージェントサーバ12に送信する。
ステップ106では、CPU16Aが、エージェントサーバ12から機能の説明情報を受信したか否かを判定する。該判定は、後述するエージェントサーバ12の処理により、エージェントサーバ12が送信する機能の説明情報を受信したか否かを判定する。該判定が肯定された場合にはステップ108へ移行し、否定された場合には一連の処理を終了する。
ステップ108では、CPU16Aが、機能説明タイミングであるか否かを判定する。該判定は、例えば、停止している等の運転に影響しない予め定めた状況であるか否か等を判定する。該判定が肯定されるまで待機してステップ110へ移行する。
ステップ110では、CPU16Aが、機能説明を案内して一連の処理を終了する。例えば、出力処理部56が、通信部58を介してエージェントサーバ12から受信した機器の説明情報を音声としてスピーカ24から出力する処理や、モニタ26に表示する処理等を行う。本実施形態では、乗員の属性に対応する車両の機能を案内する情報に基づいて、機能説明が案内される。例えば、運転者の運転技術、運転傾向、機能認知度、機能の利用の有無、車歴等の乗員の属性に応じた車両の機能説明が提案される。これにより、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能となる。また、運転に支障がない状況等の機能説明タイミングで機能説明が行われるので、機能の案内を動画で視聴する際の安全を確保することが可能となる。
続いて、車載器16から撮影画像及び車両情報が送信された場合にエージェントサーバ12で行われる処理の流れの一例について説明する。図6は、本実施形態に係る車両用エージェントシステム10において、車載器16から撮影画像及び車両情報が送信された場合にエージェントサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図6の処理は、上述のステップ104により車載器16から撮影画像及び車両情報がエージェントサーバ12に送信された場合に開始する。
ステップ150では、CPU12Aが、車載器16から撮影画像及び車両情報を受信してステップ152へ移行する。すなわち、上述のステップ104において車載器16から送信された撮影画像及び車両情報を受信する。
ステップ152では、CPU12Aが、受信した撮影画像から乗員を識別してステップ154へ移行する。すなわち、個人認識部64が、車載器16から受信した乗員の撮影画像に基づいて、予め登録された利用者の中から乗員を認識する処理を行う。例えば、乗員の顔を撮影した画像と、乗員の情報(例えば、氏名、住所、年齢等の個人情報)とをエージェントサーバ12に予め登録しておく。そして、受信した撮影画像を用いて登録情報を検索して対応する乗員を特定することにより対応する乗員を識別する。
ステップ154では、CPU12Aが、識別した乗員の属性を特定してステップ156へ移行する。すなわち、属性特定部66が、個人認識部64が認識した乗員の運転技術、運転傾向、機能認知度、車両の機能の利用有無等の属性を特定する。例えば、DB68に乗員の情報に対応付けて乗員の属性情報を記憶しておき、対応する属性情報を特定する。
ステップ156では、CPU12Aが、特定した属性に対応する車両の機能を検索してステップ158へ移行する。すなわち、制御部70が、個人認識部64によって識別されて属性特定部66によって特定された乗員の属性に対応する車両の機能を案内する情報(文字情報や動画像等)をDB68から抽出し、車両情報に基づいて抽出した中から乗員が乗車する車両に対応する情報を抽出する。なお、乗員の属性に対応する機能を案内する情報をDB68から抽出する際に、属性に対応した前記機能のうち、予め定めた利用頻度以下の機能、または利用していない期間が予め定めた期間以上の機能を案内する情報を抽出してもよい。或いは、車種履歴を属性として特定し、乗員の車種履歴から、現在乗車中の車両の機能のうち、過去の車両を含めて利用したことがない機能を抽出してもよい。或いは、乗員が乗車した車種履歴を属性として特定し、乗員の前記車種履歴から、過去の操作方法と異なる操作方法の機能を抽出してもよい。また、車両の機能を案内する情報としては、機能自体に関する情報を抽出してもよいし、車両の機能を使用するための操作方法に関する情報を案内情報として抽出してもよいし、車両の機能自体に関する情報と、当該機能を使用するための操作方法に関する情報とを抽出してもよい。
ステップ158では、CPU12Aが、検索した機能があるか否かを判定する。該判定は、制御部70が、乗員の属性に対応する車両の機能を案内する情報の抽出ができたか否かを判定する。該判定が肯定された場合にはステップ160へ移行し、否定された場合には一連の処理を終了する。
ステップ160では、CPU12Aが、説明情報調整処理を行ってステップ162へ移行する。説明情報調整処理は、制御部70が、予め定めた条件(例えば、曜日、時間帯、及び車両の停止予測時間の少なくとも1つの時間に関連する関連情報等の条件)に従って、車両の機能を案内する動画像の再生時間を調整する処理等を行う。例えば、月曜から金曜の平日は、再生時間が短くなるように調整し、土曜及び日曜等の休日は、デフォルトの再生時間にしてもよい。或いは、朝夕の時間帯は急いでいる可能性が高いので、再時間が短くなるように調整し、朝夕以外の時間帯は、予め定めたデフォルトの再生時間にしてもよい。また、取得した車両情報等から車両の停止時間(例えば、赤信号の停止時間等)がわかる場合には、停止時間に合わせた再生時間に調整してもよい。これにより、乗員の状況に応じた再生時間で機能の説明を視聴することが可能となる。なお、再生時間の調整は、再生速度を調整してもよいし、再生するコンテンツ数を調整してもよいし、再生速度及びコンテンツ数の双方を調整してもよい。
ステップ162では、CPU12Aが、説明情報調整処理によって再生時間が調整された車両の機能を案内する動画を説明情報として撮影画像及び車両情報が送信された車載器16に送信して一連の処理を終了する。これにより、車載器16では、上述のステップ106の判定が肯定されて乗員の属性に対応する機能説明が乗員に案内される。乗員の属性に対応する機能説明が乗員に案内されるので、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能となる。
このように車載器16及びエージェントサーバ12が処理を行うことで、乗員の属性に合わせた車両の機能説明を案内することができる。従って、車両の機能を乗員に案内する際に、乗員毎に適切な案内が可能となる。
具体的には、乗員の属性として車両に搭載された機能をあまり利用していない機能認知度が低い乗員に対して、忘れられて利用されていない機能(例えば、オートクルーズコントロールやレーンキープアシスト等)の運転支援機能の使い方等の機能説明を案内することができる。また、乗員の属性として車歴が分かる場合には、乗り換える前の車種に対して操作方法が変更されて異なる操作方法になっている際に、乗り換え後の車種の操作方法を機能説明として案内することができる。また、乗員の属性として高齢者等の運転技術が低下傾向の乗員に対しては、アクセル誤踏み防止の機能の説明等を機能説明として案内することができる。
続いて、本実施形態に係る車両用エージェントシステム10において、車載器16を介して乗員がエージェントサーバ12と対話する際の車載器16で行われる処理について説明する。図7は、本実施形態に係る車両用エージェントシステム10において、車載器16を介して乗員がエージェントサーバ12と対話する際の車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、例えば、車載器16が予め定めた乗員の発話を検出した場合に開始する。
ステップ200では、CPU16Aが、発話情報をエージェントサーバ12に送信してステップ202へ移行する。すなわち、音声入力処理部54が、乗員の発話をマイク22によって集音して、音声情報を生成して発話情報としてエージェントサーバ12に送信する。
ステップ202では、CPU16Aが、エージェントサーバ12から回答情報を受信したか否かを判定する。該判定が肯定されるまで待機してステップ204へ移行する。
ステップ204では、CPU16Aが、受信した回答が、認識不能を表す回答であるか否かを判定する。該判定が肯定された場合にはステップ206へ移行し、否定された場合にはステップ208へ移行する。
ステップ206では、CPU16Aが、発話内容が認識不能である旨を出力してステップ210へ移行する。すなわち、出力処理部56が、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答情報として、発話内容が認識不能である旨を音声としてスピーカ24から出力する。また、発話内容が認識不能である旨をモニタ26に表示してもよい。
一方、ステップ208では、CPU16Aが、回答を出力してステップ210へ移行する。すなわち、出力処理部56が、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答情報を音声としてスピーカ24から出力する。また、回答情報をモニタ26に表示してもよい。
ステップ210では、CPU16Aが、続けて発話があるか否かを判定する。該判定は、音声入力処理部54が、続けて乗員の発話をマイク22によって集音して検出したか否かを判定する。該判定が否定された場合にはステップ200に戻って上述の処理を繰り返し、判定が肯定されたところで一連の処理を終了する。
次に、本実施形態に係る車両用エージェントシステム10において、車載器16を介して乗員がエージェントサーバ12と対話する際のエージェントサーバ12で行われる処理について説明する。図8は、本実施形態に係る車両用エージェントシステム10において、車載器16を介して乗員がエージェントサーバ12と対話する際のエージェントサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図8の処理は、上述のステップ200により車載器16から発話情報がエージェントサーバ12に送信された場合に開始する。
ステップ250では、CPU12Aが、車載器16から発話情報を受信してステップ252へ移行する。すなわち、制御部70が、通信部72を介して車載器16から発話情報を受信する。
ステップ252では、CPU12Aが、発話内容を解析してステップ254へ移行する。発話内容の解析は、対話制御部60が、車載器16から受信した音声情報をテキスト情報に変換し、意図理解部62が、変換されたテキスト情報に基づいて、テキスト情報が示す意図理解を行う。テキスト情報の意図理解は周知の各種技術を用いて行うことができる。
ステップ254では、CPU12Aが、発話内容を認識したか否かを判定する。該判定は、対話制御部60が、意図理解を行った結果、発話内容を認識できたか否かを判定する。該判定が否定された場合にはステップ256へ移行し、肯定された場合にはステップ258へ移行する。
ステップ256では、CPU12Aが、認識不能を回答として車載器16に送信して一連の処理を終了する。すなわち、制御部70が、発話情報を送信した車載器16に対して、通信部72を介して回答情報を送信する。これにより、上述のステップ202及びステップ204が肯定される。
一方、ステップ258では、CPU12Aが、対応する回答情報を送信して一連の処理を終了する。すなわち、対話制御部60が、意図理解部62の意図理解に基づいて、回答情報を生成する。そして、制御部70が、発話情報を送信した車載器16に対して、通信部72を介して回答情報を送信する。これにより、上述のステップ202が肯定されてステップ204が否定され、回答情報が乗員に通知される。
このように車載器16及びエージェントサーバ12が処理を行うことで、乗員とエージェントサーバ12との間で対話を行うことができる。また、エージェントサーバ12から車両の機能説明が案内された場合に、案内された機能を利用するか否かの指示や、対話により追加の説明等の指示を対話で行うことが可能となる。
なお、上記の実施形態では、エージェントサーバ12と対話が可能な例を一例として説明したが、これに限るものではなく、対話の機能を省略した形態としてもよい。この場合は、例えば、対話制御部60及び意図理解部62の機能を省略して、図7、8の処理を省略して図5、6の処理のみを行う形態としてもよい。
また、上記の実施形態における車両用エージェントシステム10の各部で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、及びFPGA(Field-Programmable Gate Array)等のハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 車両用エージェントシステム
12 エージェントサーバ
14 車両
16 車載器
18 通信ネットワーク
60 対話制御部(生成部)
62 意図理解部
64 個人認識部(識別部)
66 属性特定部(特定部)
68 DB
70 制御部

Claims (10)

  1. 車両に乗車した乗員を識別する識別部と、
    前記識別部によって識別した前記乗員の属性を特定する特定部と、
    前記車両が有する機能のうち、前記特定部が特定した前記属性に対応する前記機能を案内する動画像の案内情報を車両に搭載された車載器に出力する制御を行う制御部と、
    を含む車両用エージェント装置。
  2. 前記制御部は、予め定めた条件に応じた再生時間に前記案内情報を調整する処理を更に行って車載器に出力する請求項1に記載の車両用エージェント装置。
  3. 前記再生時間の調整は、再生速度及び再生するコンテンツ数の少なくとも一方を調整する請求項2に記載の車両用エージェント装置。
  4. 前記車載器は、前記車両の状況が、予め定めた運転に影響しない状況の場合に、前記動画像で前記機能を案内する請求項1~3の何れか1項に記載の車両用エージェント装置。
  5. 前記制御部は、前記属性に対応した前記機能のうち、予め定めた利用頻度以下の前記機能、または利用していない期間が予め定めた期間以上の前記機能の前記案内情報を出力する請求項1~4の何れか1項に記載の車両用エージェント装置。
  6. 前記制御部は、前記識別部によって識別した乗員が乗車した車種履歴を前記属性として特定し、前記識別部が識別した乗員の前記車種履歴から、現在乗車中の車両の前記機能のうち、過去の車両を含めて利用したことがない前記機能の前記案内情報を出力する請求項1~5の何れか1項に記載の車両用エージェント装置。
  7. 前記制御部は、前記識別部によって識別した乗員が乗車した車種履歴を前記属性として特定し、前記識別部が識別した乗員の前記車種履歴から、過去の操作方法と異なる操作方法の前記機能の前記案内情報を出力する請求項1~6の何れか1項に記載の車両用エージェント装置。
  8. 発話内容の意図を理解する意図理解部と、前記意図理解部によって理解した発話内容に対する回答情報を生成する生成部と、を更に含む請求項1~7の何れか1項に記載の車両用エージェント装置。
  9. 請求項1~8の何れか1項に記載の車両用エージェント装置と、
    車両に設けられ、前記識別部が識別するための情報を取得し、前記制御部より出力された前記案内情報を受信して再生する車載器と、
    を含む車両用エージェントシステム。
  10. コンピュータを、請求項1~8の何れか1項に記載の車両用エージェント装置として機能させるための車両用エージェントプログラム。
JP2020170106A 2020-10-07 2020-10-07 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム Pending JP2022061873A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020170106A JP2022061873A (ja) 2020-10-07 2020-10-07 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
CN202111151427.8A CN114291008A (zh) 2020-10-07 2021-09-29 车辆用智能体装置、车辆用智能体***以及计算机可读存储介质
US17/494,214 US20220105948A1 (en) 2020-10-07 2021-10-05 Vehicle agent device, vehicle agent system, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170106A JP2022061873A (ja) 2020-10-07 2020-10-07 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム

Publications (1)

Publication Number Publication Date
JP2022061873A true JP2022061873A (ja) 2022-04-19

Family

ID=80931038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020170106A Pending JP2022061873A (ja) 2020-10-07 2020-10-07 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム

Country Status (3)

Country Link
US (1) US20220105948A1 (ja)
JP (1) JP2022061873A (ja)
CN (1) CN114291008A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140766A (ja) * 2016-12-21 2018-09-13 本田技研工業株式会社 車両運転情報を提供する装置および方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112012006617B4 (de) * 2012-06-25 2023-09-28 Hyundai Motor Company Bord-Informationsvorrichtung
KR101542964B1 (ko) * 2013-09-26 2015-08-12 현대자동차 주식회사 자동차의 기능 안내 시스템
US10599155B1 (en) * 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US9796391B2 (en) * 2014-10-13 2017-10-24 Verizon Patent And Licensing Inc. Distracted driver prevention systems and methods
US10157423B1 (en) * 2014-11-13 2018-12-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operating style and mode monitoring
WO2016170785A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
JP6074553B1 (ja) * 2015-04-21 2017-02-01 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US20160363935A1 (en) * 2015-06-15 2016-12-15 Gary Shuster Situational and predictive awareness system
JP6819086B2 (ja) * 2016-06-15 2021-01-27 株式会社デンソー 車両用表示制御装置
DE102017213249A1 (de) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erzeugen einer auditiven Meldung in einem Innenraum eines Fahrzeugs
JP6897615B2 (ja) * 2018-03-28 2021-06-30 トヨタ自動車株式会社 車両制御装置
KR20200095636A (ko) * 2019-01-31 2020-08-11 현대자동차주식회사 대화 시스템이 구비된 차량 및 그 제어 방법
US11254316B2 (en) * 2020-01-24 2022-02-22 Ford Global Technologies, Llc Driver distraction detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140766A (ja) * 2016-12-21 2018-09-13 本田技研工業株式会社 車両運転情報を提供する装置および方法

Also Published As

Publication number Publication date
US20220105948A1 (en) 2022-04-07
CN114291008A (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant's emotion
JP7053432B2 (ja) 制御装置、エージェント装置及びプログラム
WO2014083738A1 (ja) テキスト読み上げ装置およびその方法
US10773726B2 (en) Information provision device, and moving body
US10706270B2 (en) Information provision device, and moving body
CN110147160B (zh) 信息提供装置和信息提供方法
US10666901B1 (en) System for soothing an occupant in a vehicle
US11014508B2 (en) Communication support system, communication support method, and storage medium
CN112078498B (zh) 一种车辆智能座舱的声音输出控制方法和智能座舱
CN111717083B (zh) 一种车辆交互方法和一种车辆
US10956761B2 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
CN111813491A (zh) 一种车载助手的拟人化交互方法、装置及汽车
JP2019086805A (ja) 車内システム
US20200143810A1 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
CN112918381B (zh) 一种车载机器人迎送宾方法、装置及***
JP2022061873A (ja) 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
CN111902864A (zh) 用于运行机动车的声音输出装置的方法、语音分析与控制装置、机动车和机动车外部的服务器装置
US10997442B2 (en) Control apparatus, control method, agent apparatus, and computer readable storage medium
WO2023227014A1 (zh) 一种隐私保护方法及相关装置
JP7264139B2 (ja) 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
EP4299399A1 (en) Method for determining a notification procedure, method for transitioning control of a vehicle, data processing apparatus and autonomous driving system
JP2021163236A (ja) 情報提供装置
JP2022165339A (ja) エージェント装置
CN117719445A (zh) 用户情绪调节方法、装置、车辆及存储介质
JP2024067341A (ja) 車両の情報提示方法及び情報提示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231010

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231208